(CNN Español) – Según un informe de economistas de Goldman Sachs, unos 300 millones de puestos de jornada completa podrían ser sustituidos por la inteligencia artificial (IA) en todo el mundo.
Eso supone el 18% de la fuerza laboral. Los trabajadores más afectados estarían en las economías avanzadas que en las emergentes.
Patricia Ventura, doctora en Medios, Comunicación y Cultura de la Universidad Autónoma de Barcelona, es experta en ética e inteligencia artificial. En 2021, elaboró un informe que proporcionaba un marco para el gobierno español sobre las tecnologías algorítmicas en la esfera comunicativa.
Revisa la entrevista que realizó Miguel Ángel Antoñanzas de CNN.
Una de las cosas que más miedo da es la posibilidad de que nos sintamos sustituidos por la inteligencia artificial, ¿es posible?
P: No podemos sentirnos inferiores a una máquina porque es más eficiente o productiva. Las personas humanas somos mucho más que eficiencia y productividad. Entonces, este discurso de la productividad y de comparar el cerebro humano con la máquina no nos ayuda y no podemos ceder a estos relatos. Estos son relatos interesados de quiénes se van a beneficiar de este caos.
Tenemos que valorarnos, sobre todo, por nuestro criterio moral para gobernar a esa tecnología. Esa moralidad no la tienen ni la pueden tener las máquinas. No hay nada que demuestre que pueden tenerla.
¿Entonces cuáles son las profesiones que se van a ver perjudicadas por esta inteligencia artificial?
P: He percibido mucha preocupación por parte de personas que se dedican al doblaje, por parte de guionistas, de hecho, en Estados Unidos ha habido la principal movilización mundial por parte de guionistas para que los estudios, pues sigan contando con ellos.
No quieren que les lleven guiones ya hechos por máquinas para que ellos sólo los repasen, que no entrenen a las máquinas con sus guiones y si lo hacen, pues que les paguen por ello. Entonces estas son profesiones que claro, corren peligro y se pueden ver perjudicadas.
En el mundo legal también. Una herramienta de estas es capaz de rastrear jurisprudencia sobre un tema concreto en un momento. Entre los periodistas hay determinadas tareas que no van a ser necesarias, pero incluso algunos dicen que los programadores también serán impactados, ahora el código también los hace la máquina.
2023: Un año clave para el desarrollo de la inteligencia artificial en el mundohttps://t.co/kMez0LyJYB
— Futuro 360 (@futuro_360) July 12, 2023
Pero también es verdad que cuando miras atrás, ves que cuando hubo cambios tecnológicos también pareció que todo iba a desaparecer, que se iba a acabar el mundo. Y luego al final las cosas se han resituado, por eso tenemos que aprender de la historia.
El miedo nunca es bueno, obviamente tenemos que ser comprensivos con aquellas profesiones que, o personas que, ahora no pueden reinventarse o que están en determinadas posiciones.
Pero así es la evolución tecnológica. Si hay profesiones que las puede hacer una máquina quiere decir que a lo mejor no son tan creativas o determinadas. Por lo tanto, creo que los efectos reales aún no lo sabemos, que hay que mirarlo con calma, pero hay que asumir que determinadas tareas, no sé si profesiones, pero determinadas tareas las va a acabar asumiendo esta tecnología.
¿Y qué profesiones son las que se van a favorecer?
P: Las grandes tecnológicas, las que tienen determinados sectores afines o que pueden aprovecharse de esa tecnología de alguna manera. En el caso de la comunicación y la cultura, quizás en el que más especializado, pues se pueden aprovechar de ella pues eso, quienes quieren desinformar o intoxicar muchas veces, pero por otro lado también pueden salir beneficiadas, personas que quieran levantar proyectos bonitos e incluso gente que quiera hacer proyectos periodísticos que antes no se podían hacer. Sobre todo, las grandes tecnológicas tienen la de ganar.
¿Qué es lo que no se está entendiendo bien de la Inteligencia artificial?
P:Lo que creo que aún no se está entendiendo y que se acabará entendiendo es que esto es tecnología, tecnología que se puede usar en un sentido o en otro para hacer cosas positivas, para cosas no tan positivas como cualquier otra.
Es una herramienta que nos puede servir para conseguir muchas cosas que quizá hasta ahora no habíamos podido conseguir. Puede servir para que todos tengamos más oportunidades. Nos puede servir para mejorar el medio ambiente. Pero también puede servir para generar desinformación, polarización, para intoxicar.
Algunos expertos o incluso responsables del desarrollo de esta IA, están pidiendo públicamente una regulación, otros expertos han advertido del peligro, incluso para toda la humanidad.
P:La inteligencia artificial en sí no es mala y no tiene intenciones, no tiene motivaciones y no hay nada que evidencie que una máquina puede tener una motivación. Y eso es un matiz muy importante porque descarga la responsabilidad sobre quién la crea, entonces, la inteligencia artificial no nos va a dominar, no está fuera de control, sino las personas que la están creando y que la están poniendo en el mercado, quizás sin suficientes medidas de seguridad y sin suficiente auditoría, esas sí que son un peligro. El foco debería estar sobre las personas.
Yo creo que el peor escenario es la desregulación, porque la regulación va a hacer que todo el mundo tenga que pasar por unas normas para poder poner determinados artefactos en el mercado que pueden perjudicar a los demás.
Los creadores son los responsables de sus creaciones y, por lo tanto, esa responsabilidad les obliga a controlarla. Entonces a mí me parece que esto es un relato que interesado, que a determinados creadores les interesa difundir o promover, pero yo creo que no es que, si son responsables, pues pueden controlarla.
Aunque hemos visto públicamente que se pide regulación, usted ha manifestado que cree que hay un doble lenguaje en esas declaraciones.
P:A mí me parece que aquí hay un lenguaje confuso e interesado. Yo creo que no les interesa la regulación, sino que lo que les interesa es participar en la regulación.
En Europa tenemos el Reglamento General de Protección de Datos que sabemos y además explicado muy bien por un asesor de la ONU y de la Unión Europea, que cuando Italia prohibió ChatGPT lo prohibió, siendo muy estricta en la aplicación del Reglamento General de Protección de Datos, que no legitima de ninguna forma lo que están haciendo Open AI y estas empresas con los datos que hay en internet, entre otras cosas porque muchos están sujetos a derechos de autor.
Por otro lado, ahora también una firma de abogados de California hizo también en Estados Unidos una demanda a OpenAI. Lo que pasa es que es curioso porque Italia se echó para atrás, Europa no ha aplicado el Reglamento General de Protección de datos y a mí me parece que eso es lo que nos revela el gran poder que tienen estas empresas, que parece que está por encima de los estados.
Efectivamente, y lo comentabas, OpenAI ha sido demandada colectivamente en California con la acusación de que la compañía roba y se apropia de la información de personas para entrenar a sus herramientas de inteligencia artificial.
El problema es que quizás se han lanzado al mercado estas herramientas que también toman, digamos, datos de personas, de creadores protegidos por derechos de autor, entonces aquí entra en esta contradicción y es triste porque son herramientas que pueden servir e incentivar mucho la creatividad, pero al mismo tiempo el mismo creador pues puede sentirse incómodo, pues están usando creaciones de otros y por eso es importante la regulación.
Deja tu comentario