(CNN) – En un esfuerzo por ayudar a prevenir la difusión de información errónea, Google presentó el martes una marca de agua invisible y permanente en las imágenes que identificará como generadas por computadora.
La tecnología, denominada SynthID, incrusta la marca de agua directamente en las imágenes creadas por Imagen, uno de los últimos generadores de texto a imagen de Google. La etiqueta generada por la IA permanece independientemente de modificaciones como filtros añadidos o colores alterados.
La herramienta SynthID también puede escanear las imágenes entrantes e identificar la probabilidad de que hayan sido creadas por Imagen, buscando la marca de agua con tres niveles de certeza: detectada, no detectada y posiblemente detectada.
“Aunque esta tecnología no es perfecta, nuestras pruebas internas demuestran que es precisa frente a muchas de las manipulaciones de imágenes más comunes”, escribió Google en un blog este martes.
Una versión beta de SynthID ya está disponible para algunos clientes de Vertex AI, la plataforma de inteligencia artificial generativa de Google para desarrolladores. La compañía afirma que SynthID, creada por la unidad DeepMind de Google en colaboración con Google Cloud, seguirá evolucionando y podría expandirse a otros productos de Google o de terceros.
Deepfakes y fotografías alteradas
A medida que las imágenes y videos falsos y editados se vuelven cada vez más realistas, las empresas tecnológicas se esfuerzan por encontrar una forma fiable de identificar y marcar el contenido manipulado. En los últimos meses, se hizo viral una imagen generada por IA del papa Francisco con una chaqueta y se difundieron imágenes generadas por IA del expresidente Donald Trump siendo arrestado antes de que fuera acusado.
En junio, Vera Jourová, vicepresidenta de la Comisión Europea, pidió a los signatarios del Código de Buenas Prácticas de la UE sobre Desinformación —una lista que incluye a Google, Meta, Microsoft y TikTok— que “pongan en marcha una tecnología para reconocer este tipo de contenidos y señalarlos claramente a los usuarios”.
Con el anuncio de SynthID, Google se une a un número creciente de startups y grandes empresas tecnológicas que intentan encontrar soluciones. Algunas de estas empresas llevan nombres como Truepic y Reality Defender, que hablan de lo que está en juego: proteger nuestro sentido de lo que es real y lo que no.
Seguimiento de la procedencia de los contenidos
La Coalición para la Autenticidad y Procedencia de los Contenidos (C2PA, por sus siglas en inglés), un consorcio respaldado por Adobe, ha liderado las iniciativas de marcas de agua digitales, mientras que Google ha adoptado en gran medida su propio enfoque.
En mayo, Google anunció una herramienta llamada About this image, que ofrece a los usuarios la posibilidad de ver cuándo fueron indexadas originalmente por Google las imágenes que se encuentran en su sitio, dónde pueden haber aparecido por primera vez y dónde más se pueden encontrar en línea.
La empresa tecnológica también ha anunciado que todas las imágenes generadas por IA y creadas por Google llevarán una marca en el archivo original para “dar contexto”, si la imagen se encuentra en otro sitio web o plataforma.
Pero como la tecnología de IA avanza más deprisa de lo que lo hacen los humanos, no está claro que estas soluciones técnicas puedan resolver el problema por completo. OpenAI, la empresa detrás de Dall-E y ChatGPT, admitió –a principios de este año– que su propio esfuerzo para ayudar a detectar la escritura generada por IA, en lugar de imágenes, es “imperfecto”, y advirtió que debería “tomarse con cautela”.
Deja tu comentario