La inteligencia artificial (IA) llegó para quedarse, por consecuencia debemos adaptarnos y comprender que debemos realizar una serie de cambios para validar la información.
La aparición de deepfakes se ha asociado a videos, imágenes o audios que imitan la apariencia y el sonido de una persona. Estos mecanismos son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos.
“El software imita las redes neuronales para generar un contenido lo más parecido a la realidad, aunque siempre serán falsas”, asegura el académico de Ingeniería Informática de la Universidad de Santiago de Chile (Usach), Felipe Sánchez.
Esta capacidad modelada que tienen algunos programas informáticos no es buena ni mala en sí, sino la finalidad para la que se emplea es la que puede ser catalogada como un avance o retroceso en la nueva era del uso de la IA.
“Es importante comprender que esta nueva técnica de engaño proviene de una palabra compuesta como lo es ‘deep learning’. Por una parte, ‘learning’ deriva de aprendizaje profundo, lo que significa un tipo de aprendizaje con inteligencia artificial que trata de asemejarse lo más posible a cómo funcionan las redes neuronales de nuestro cerebro, y la palabra ‘fakes’ que traducida es falso”, apuntó.
Según el académico de la Usach, uno de los graves problemas es la mala utilización que le dan los ciberdelincuentes para un beneficio económico, puesto que esta herramienta puede generar un contenido engañoso para perjudicar a las personas o superar barreras de accesos.
En otros contextos, también se usa con personas conocidas públicamente para la suplantación de identidad.
“La técnica audiovisual Deepfakes usa el aprendizaje automático de la Inteligencia Artificial. El problema es que este algoritmo computacional puede perfeccionarse cada día para lograr ser más real, aunque siempre serán falsas”, enfatiza Sánchez.
En el caso de personas naturales, las familias también deben estar más atentas y desconfiar de los canales de comunicaciones no habituales, validar la información con sus cercanos y quizás tener algunas “claves familiares” ante estos intentos de engaños.
El perito recomienda que las empresas validen mejor la información y actualicen sus protocolos de seguridad con controles más rigurosos como por ejemplo la utilización de biometría de voz.
Deja tu comentario