La reconocida actriz Scarlett Johansson ha acusado a OpenAI de utilizar una voz en su última actualización de ChatGPT que imita extrañamente a la suya sin su consentimiento. La controversia estalló cuando Johansson escuchó una demostración de la nueva asistente de voz, conocida como Sky, y notó una sorprendente similitud con su propio timbre vocal.
“Cuando oí la demo publicada, me quedé estupefacta, enfadada y no podía creer que el Sr. Altman hubiera usado una voz que sonaba tan extrañamente parecida a la mía,” declaró Johansson. La actriz añadió que había rechazado una oferta para participar en el proyecto y se sintió aún más contrariada cuando el CEO de OpenAI, Sam Altman, tuiteó la palabra “HER” en referencia a la película en la que ella dio voz a un sistema operativo de inteligencia artificial, insinuando una similitud intencional.
¿La IA más avanzada y humana hasta la fecha? OpenAI lanza Chat-GPT4o
Ante estas acusaciones, OpenAI decidió retirar la voz de Sky. Sam Altman respondió: “La voz de Sky no es la de Scarlett Johansson y nunca tuvo la intención de parecerse a la de ella. Elegimos al actor de doblaje detrás de la voz de Sky antes de contactar a la Sra. Johansson. Por respeto a la Sra. Johansson, hemos dejado de usar la voz de Sky en nuestros productos. Lamentamos mucho, señora Johansson, que no nos hayamos comunicado mejor“.
El CTO de Asimov Consultores, Nicolás Silva, comentó que esta situación ha desatado un debate importante sobre la capacidad de la inteligencia artificial para imitar voces humanas sin consentimiento. Este incidente subraya la necesidad de una regulación más estricta en el uso de la IA para prevenir posibles abusos y proteger los derechos de las personas.
Regulaciones en la Unión Europea
Este tema cobra mayor relevancia en el contexto de la reciente aprobación por parte de la Unión Europea de la primera ley que regula el uso de la inteligencia artificial. Esta normativa afectará a desarrolladores, distribuidores, importadores y usuarios de IA.
Inteligencia artificial logró detectar diferencias estructurales en cerebros de hombres y mujeres
Alonso Astroza de la Facultad de Ingeniería de la Universidad del Desarrollo, Rodrigo Prado, asesor en IA y Estrategia Digital de la Universidad de Columbia, y Sebastián Dueñas, investigador del programa de Derecho, Ciencia y Tecnología de la Universidad Católica, han destacado que la ley se implementará progresivamente hasta 2026, comenzando en noviembre con la prohibición de sistemas biométricos que discriminen por creencias políticas, religiosas, filosóficas, raza u orientación sexual.
Las sanciones para quienes incumplan esta normativa serán severas, con multas que van desde los 35 millones de euros o el 7% de los ingresos anuales de la empresa hasta los 7,5 millones de euros. Estas medidas buscan mitigar los riesgos asociados con el uso de la inteligencia artificial y asegurar que su desarrollo y aplicación se realicen de manera ética y responsable.
Deja tu comentario