BioBioChile en 2023 ya hizo la primera prueba de concepto en el mundo de las etiquetas por parte de un sitio de noticias.
Para combatir la creciente desinformación y el fraude online, California acaba de dar un paso importante como estado, pero a la vez un gran salto para la humanidad – imitando con esa frase a las palabras de Neil Armstrong cuando fue el primer hombre en pisar la superficie lunar.
El gobernador de California, Gavin Newsom, firmó una Ley que implanta en el estado un sistema integral de etiquetado del contenido digital en internet para ayudar al público tener información confiable sobre el origen y la naturaleza de todo lo que consume online.
Pero como con la pisada de Armstrong en la luna, el impacto de esta medida por parte de solo uno de los 50 estados de EE.UU. seguramente reverbera mucho más allá de sus fronteras. Es que California no es cualquier estado. Por si solo es la cuarta economía del mundo y sede de 32 de las 50 empresas de Inteligencia Artificial (IA) más importantes del mundo.
La aprobación de la legislación llega en un momento en que muchos expertos recomiendan al público no creer en lo que ven y escuchan online, especialmente si no toman los recaudos como evaluar el origen, la naturaleza y la integridad de la información.
“La proliferación de contenido generado por IA nos afecta profundamente a todos, especialmente a medida que la tecnología, en rápida evolución, se vuelve cada vez más accesible y distribuida, y el contenido en sí se vuelve cada vez más difícil de distinguir de la realidad”, escribió Newsom, al firmar la legislación, convirtiéndola en ley.
“Este proyecto de ley es un paso crucial para permitirnos distinguir claramente lo real de lo sintético y, por lo tanto, aumentar la confianza en el uso de la IA en nuestra vida cotidiana”, dijo Newsom.
Hasta ahora, muchos datos contextuales no han estado disponibles al público en forma segura, complicando la tarea de analizar la veracidad de una noticia o posteo en redes.
A la vez, hace años, malhechores, con técnicas muy rudimentarias, lograban falsificar de manera artesanal el sentido de fotografías, videos y audios, que luego tomaron vuelo en las redes y plataformas, creando la primera ola de desinformación.
Con la llegado de la IA generativa, de todos modos, el problema se extendió, ya que cualquier persona quedo habilitada para generar falsificaciones realistas, solamente ingresando algunas palabras de instrucción a algún servicio de IA generativa.
Con esta amenaza presente, la legislatura de California el 12 de septiembre dio aprobación final a legislación que redondea el esfuerzo de hacer disponible al público información de procedencia de los contenidos digitales, dándole así una respuesta sistémica a la plaga de la desinformación. El gobernador ayer la convirtió en ley.
Por razones tecnológicas y financieras, es probable que las medidas de California tengan impacto mundial entre aquellas plataformas, herramientas de IA y dispositivos de captura, fabricados y utilizados en el mundo occidental. Llevarían a la implementación a escala del estándar de procedencia C2PA promovido por la Iniciativa de Autenticidad de Contenido (CAI), un esfuerzo multisectorial mundial de más de 5.000 miembros.
BioBioChile es miembro de CAI y fue el primer sitio de noticias en el mundo en llevar a cabo una prueba de concepto del estándar de procedencia, hecho que ocurrió en 2023 cuando publicó fotografías acompañadas de las “etiquetas de nutrición” digitales, que daban al público información segura sobre el origen y la integridad de las fotografías.
La prueba fue exitosa pero aún no estaban, ni están hoy presentes, todos los elementos necesarios para una implementación completa de la estrategia de trazabilidad de los contenidos.
De todos modos, cada vez estamos más cerca. La votación de la legislatura culmina un período de rápido avance del movimiento sobre la trazabilidad del contenido, incluido el lanzamiento con tecnología C2PA del teléfono Pixel 10 de Google, una implementación innovadora de C2PA por parte de France TV, una decisión de la asociación de proveedores de cámaras de seguridad de unirse a C2PA y la implementación de una política de procedencia en China.
El estándar C2PA es de fuente abierta y fue desarrollado dentro de la Fundación Linux, por un grupo de empresas incluyendo a Adobe, BBC, Publicis Groupe, Google, Microsoft, OpenAI, Sony, Intel, Meta, Amazon y TruePic. C2PA es el acrónimo por el nombre de este grupo técnico, la Coalición por la Procedencia y Autenticidad del Contenido. CAI es el grupo que públicamente promueve la adopción del estándar.
Con el estándar, el público tiene acceso a algo como una “etiqueta de nutrición” de los contenidos digitales. En el caso de capturas reales, la etiqueta dice donde, como, cuando y eventualmente, por quién fue logrado el registro (la fotografía, el video o el audio), y si fue cambiado después de su captura, y como. Para capturas reales, el uso de la tecnología es opcional, incluyendo la posibilidad de definir qué información de procedencia uno quiere compartir.
El estándar C2PA ya está siendo utilizado por ChatGPT, Dall-e, Sora, Bing y Adobe Firefly, y está visible en LinkedIn, con un icono CR visible en imágenes, que es un vínculo que lleva a la información de procedencia. Google y Facebook anunciaron sus planes para implementar el estándar, aunque no se sabe aun cuando.
John Bennett, investigador del comité de privacidad y protección al consumidor, hizo un informe meses atrás para los legisladores, que resume la naturaleza de la legislación. En ese informe, dijo: “La propagación descontrolada de contenido sintético amenaza con perjudicar a los californianos de diversas maneras, como la proliferación de pornografía DeepFake no consensuada, estafas, daños a la reputación y la distribución de desinformación electoral dirigida. Una estrategia para combatir esto es integrar datos de procedencia (origen) en el contenido generado por IA y capturado en tiempo real que permitan a los espectadores verificar el contenido”.
El año pasado la legislatura estatal aprobó el Acta AI de Transparencia, SB 942, que obliga a los proveedores de IA Generativa, a partir del 1 de enero de 2026, a incluir en los contenidos generados información sobre el origen de los mismos, incluyendo su creación mediante la IA, el nombre del sistema generador y la fecha de la producción.
Pero los autores y proponentes de esa legislación sabían que ese primer paso era incompleto sin las medidas contempladas en la legislación aprobada ahora, ya que: No tenía sentido práctico marcar las obras de IA como tales si esa información de origen no estaba visible en las plataformas/redes.
Visto que la IA puede crear imágenes, videos y audios esencialmente indistinguibles de capturas reales, era imprescindible que fuera posible, y a la vez, opcional, marcar capturas reales para darle al público las herramientas de conocer afirmativamente la naturaleza de cada contenido.
“Estos requisitos, junto con la SB 942, crearían un marco integral de divulgación y detección que permitiría la clasificación a gran escala del contenido como auténtico o artificial”, dijo Bennett, en su análisis, que contempla la utilización del estándar de procedencia C2PA, el único con amplio apoyo y eficacia demostrada.
La obligatoriedad de las plataformas y redes de mostrar la información de procedencia incluido en los contenidos entraría en vigor el 1 de enero de 2027 mientras que los dispositivos de captura deberían incluir tecnología de procedencia desde el 1 de enero de 2028.
John Reichertz
Consultor en América Latina de la Iniciativa de Autenticidad de Contenido.
Enviando corrección, espere un momento...