A medida que la tecnología avanza, surgen nuevas preguntas sobre sus implicaciones éticas y legales
El lado oscuro de la inteligencia artificial
Un homenaje a la fallecida modelo Silvina Luna a través de un chatbot revivió el debate sobre el uso de los datos personales. El país cuenta con una normativa que tiene 24 años de antigüedad.
La reciente creación de un chatbot que imita la voz y la personalidad de la fallecida modelo Silvina Luna ha reabierto el debate sobre los límites éticos y legales de los 'deepfakes', la tecnología que permite recrear de forma realista la imagen y la voz de cualquier persona.
Mientras algunos ven en ello una forma de mantener vivo el recuerdo de los seres queridos, otros advierten sobre los peligros de la suplantación de identidad y el uso malintencionado de esta tecnología.
David Hosting es docente y también preside la Asociación de Programación Neurolingüística de Argentina (APNL). El hombre sufrió una terrible pérdida en 2022: su hijo, murió en un accidente con su moto. Para superar la pérdida, creó un chatbot que le permite mantener el contacto con el joven. Pero hace pocos días fue nuevamente noticia por compartir en sus redes un chatbot con inteligencia artificial para “hablar” con la fallecida modelo Silvina Luna. La grabación que intentaba dar algo cercano a una terapia artificial, muy realista, provocó una inmediata y dolida reacción de su entorno, que lo vio como una falta de respeto a su memoria.
Sin embargo, detrás de la experiencia subyace un aspecto que preocupa a muchos especialistas sobre el uso de los datos en la inteligencia artificial. Más allá de los homenajes que se quieran crear en torno a una figura pública también existen quienes buscan desinformar con videos o publicaciones falsas que, por el avance de la tecnología, parecen cada vez más reales hasta el punto de confundir a la audiencia.
Martín Elizalde, abogado especialista en seguridad informática y privacidad de datos, señaló a La Prensa que “la línea que separa el homenaje de la suplantación de identidad es cada vez más difusa. La tecnología actual permite resultados tan convincentes que casi la mitad de las personas no puede distinguir un 'deepfake' de una imagen real".
Un ejemplo de esto ocurrió el año pasado cuando la Inteligencia Artificial Generativa (IAG) irrumpió en la escena política durante la última campaña electoral en la Argentina, presentándose como una innovadora herramienta para crear contenido visual atractivo. Sin embargo, rápidamente se convirtió en un arma de doble filo con la difusión de un video falso que mostraba a Sergio Massa consumiendo drogas. Aunque este engaño fue rápidamente desacreditado debido a su pobre calidad, planteó una pregunta crucial sobre cómo puede la IAG influir en el debate público.
En el caso de Silvina Luna la gran cantidad de entrevistas y fotos de la modelo permitió fácilmente acceder a vestigios de su identidad que permitieron generar una replica de su voz y expresiones. “El tema acá no es el deep fake, la cuestión de fondo es el uso de inteligencia artificial. Porque para generar estas imágenes, se utilizan otras imágenes. Cualquier persona que usa las redes sociales tiene multiplicado hasta el infinito las fotos. Creo que hoy no tenemos más un derecho a la privacidad, sino un derecho a una expectativa de privacidad. Si una persona está en la nube todo el tiempo, no puede exigir un nivel de privacidad demasiado alto”, señaló el especialista argentino que es profesor de la Maestría de Seguridad Informática de la Universidad de las Américas, Quito y de la Diplomatura de Seguridad Informática y Compliace de la Universidad Latina de Panamá.
Luego agregó que “aunque siempre he defendido firmemente el derecho a la privacidad, reconozco que su concepto ha evolucionado a lo largo del tiempo, al igual que muchos otros. Nuestra vida privada sigue siendo privada, pero una vez que la hacemos pública, especialmente en internet, es difícil revertir esa decisión. La información allí tiende a perdurar”.
PROBLEMA DE FONDO
La raíz del problema, según Elizalde, no es la tecnología en sí misma, sino su uso indebido. "Si se emplea para burlarse, difamar o engañar, es claramente ilegítimo", afirmó. El experto destacó la importancia de la intencionalidad y la transparencia de los algoritmos utilizados en la creación de deepfakes.
“Creo que la inteligencia artificial es una herramienta fantástica, pero es una herramienta. Acá se tiene que apuntar a dos elementos. Por un lado, la robustez de la tecnología usada. Si está plagada de sesgos o que permite cualquier tipo de tendencia, se enfrentarán problemas, ya que los resultados serán deficientes. Se puede terminar generando una imitación burlesca y ofensiva de la persona a la que se intenta emular. El segundo elemento es la intencionalidad con que se usan esos datos”, señaló Elizalde.
SIN PRIORIDAD
La regulación de esta tecnología es un desafío global. Aunque existen avances en Europa y Estados Unidos, en Argentina la legislación está rezagada. Elizalde subrayó la necesidad de fortalecer la protección de datos personales y establecer normas claras sobre el uso de la inteligencia artificial.
Consultado sobre la situación en que se sitúa la Argentina sobre la protección de datos, el especialista fue categórico al afirmar que es “un país donde la protección de datos personales no es una prioridad. No tengo conocimiento de sanciones significativas para quienes manejan mal sus bases de datos, no las registran o las protegen con medidas de seguridad deficientes. Es un país con regulaciones laxas. Irónicamente, a veces las leyes van por un lado y la realidad por otro. Algunos estados europeos consideran a la Argentina seguro en términos de seguridad informática, a pesar de que sitios web importantes como los de Ansés o Telefónica han sufrido caídas. Es un lugar donde la información personal circula con demasiada libertad, lo cual es preocupante. Por eso, la llegada de modelos de inteligencia artificial genera aún más inquietud, ya que este país, por su falta de control, parece casi invitar al fraude informático”.
La respuesta a esta situación y al uso de los datos personales, según el experto, está en analizar cada caso de forma individual, considerando la intencionalidad y el impacto emocional en los afectados. "No se trata de prohibir la tecnología, sino de usarla con responsabilidad y respeto", concluyó Elizalde.