Aunque parece sacado de una película de ciencia ficción, Google logró crear un algoritmo de inteligencia artificial que “cobra vida” y mantiene una conversación como una persona real. Un ex empleado de la gigante tecnológica afirmó que LaMDA “había alcanzado un nivel de conciencia”
Un mes después, la empresa desestimó las afirmaciones del ingeniero en software, Blake Lemoine, lo que ocasionó su despido. La repentina salida provocó críticas en el mundo de la tecnología, incluso en el equipo de IA ética de la compañía.
Pero ¿cuáles son los límites de la ética en la Inteligencia Artificial? Para ahondar en este caso y otros temas asociados, en Futuro 360 conversamos con Felipe Tobar, director de la Iniciativa de Datos e Inteligencia Artificial de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile.
“Está lleno de noticias de que los robots están desarrollando conciencia, que desarrollan su propio lenguaje, que se nos están escapando de las manos y hay que ser super cauto con eso”, enfatizó el ingeniero civil electricista.
Lee también: Google despidió a ingeniero que aseguró que programa de Inteligencia Artificial cobró conciencia propia
De acuerdo al experto, lo que pasó en particular con el Modelo de Lenguaje para Aplicaciones de Diálogo “es similar a lo que hemos visto en otros desarrollos de IA, y es esperable en función de cómo se creó este mecanismo”, aseguró.
LaMDA es un modelo de lenguaje basado principalmente en redes neuronales y otras técnicas (…) con la capacidad de generar diálogos, por ello, para Tobar resulta “ impresionante como uno puede interactuar durante mucho tiempo con estos sistemas y creer hasta cierto punto, que está hablando con un humano”.
#Futuro360 | Súmate a #Futuro360 de @CNNChile a las 22:30 junto a @Felipe_Tobar, director de la Iniciativa de Datos e Inteligencia Artificial @UChile_Beauchef, para ahondar en la ética de la IA y el caso LaMDA.
Conduce: @paloma_avila
▶ Otros capítulos https://t.co/a2jkRGiQcG pic.twitter.com/MTCZRPPZ2I
— Futuro 360 (@futuro_360) July 26, 2022
Google es uno de los líderes en la innovación de la tecnología de IA, que incluye LaMDA. Este mecanismo responde a las peticiones escritas encontrando patrones y prediciendo secuencias de palabras a partir de grandes franjas de texto, y los resultados pueden ser impactantes.
Los sesgos en la IA
Cuando se habla de sesgo en IA, se relaciona a los prejuicios, de concepciones de la realidad por las cuales tomamos decisiones de forma consciente o inconsciente.
Es similar a lo que hemos visto en otros desarrollos de IA, y es esperable en función de cómo se creó este mecanismo – Felipe Tobar.
Por lo tanto, es necesario destacar el papel que poseen todas aquellas personas que trabajan con estos algoritmos y hacer conciencia sobre el impacto que tienen.
“Los problemas con los que nos vamos a encontrar son mucho más básicos que estos filosóficos que a veces cuestionamos. Uno de los problemas más urgentes son los sesgos”, sostuvo Tobar y agregó que “ciertamente el uso de la IA reviste un peligro, pero la razón de ese peligro es el mal uso de la IA”.
Lee también: LaMDA, la IA de Google que puede mantener conversaciones y que al parecer, confundió a sus propios creadores
“Yo creo que el riesgo principal es el despliegue irresponsable de los mecanismos de IA y no solo en los sesgos, también en la obsolescencia del trabajo y en la propagación de fake news, yo creo que esos son los tres ejes más importantes”, concluyó.
Deja tu comentario