Falta un encuadramiento jurídico global que garantice una utilización adecuada y confiable de los datos

Los desafíos éticos de la Inteligencia artificial

La popularidad de esta herramienta abrió debates sobre su uso debido a que plantea oportunidades de desarrollo. Los especialistas están a favor de su desarrollo, pero creen que se necesitan controles.

La Inteligencia Artificial (IA) irrumpió de forma fulminante en nuestras vidas y con el ChatGPT pareciera que cualquier persona puede convertirse en un erudito o gran artista con sólo escribir una orden. Esta disciplina que está en boca de todos se refiere a la simulación de la inteligencia humana mediante el procesamiento de datos para aumentar el conocimiento codificado por software. Esto es expresado por sistemas informáticos o combinaciones de algoritmos cuyo propósito es la creación de máquinas que imiten la inteligencia humana para realizar tareas.

En la disciplina Ciencias de la Información e Inteligencia Artificial, el país no se queda atrás: cuenta con destacadas figuras que desde hace varios años vienen aportando con sus investigaciones novedades en el área y de hecho, este año en los Premios Konex se eligieron a las 100 personalidades más relevantes de la última década de la Ciencia y Tecnología Argentina.

Sin embargo, como cualquier avance en este tema, la IA genera suspicacias y temores aquí y en el mundo en cuanto a los peligros que pueda significar el potencial reemplazo de la inteligencia humana.

Varios expertos, no obstante, indican que la realidad, por el momento, es otra. “El cambio que estamos viviendo tiene que ver más con la incorporación de la tecnología en el día a día, que específicamente con la IA. Hay muchas cosas denominadas de esta manera y no necesariamente lo son. Por ejemplo, el smartphone, que se refiere al celular en todo tipo de utilización cotidiana. Eso está transformando todo, pero ¿cuánto de lo que este objeto te ofrece es inteligencia artificial? Algo puede tener, pero en realidad lo que está modificando es el uso de las tecnologías. Y esto no es nuevo”, resaltó a La Prensa el galardonado con un diploma de honor de los Konex 2023, Diego Fernández Slezak.

El también actual director del Laboratorio de Inteligencia Artificial Aplicada de la UBA de la Facultad de Ciencias Exactas se dedica precisamente a la investigación de lo que es la frontera entre la inteligencia artificial y la neurociencia. Además, Slezak es especialista en procesamiento de lenguaje natural, con particular aplicación a la caracterización de estados mentales.

Una visión similar sostiene Vanina Martínez, quien también fue homenajeada por los Konex, y es Investigadora Adjunta de Conicet y profesora en el Departamento de Computación de la Facultad de Ciencias Exactas y Naturales estatal. Martínez señaló a La Prensa

que “estamos en una etapa en que nos toca convivir y asimilar tecnología que no es tan inteligente como nuestro imaginario nos lleva a pensar. Además, es todavía muy frágil en su funcionamiento, puede equivocarse y, a veces, generar impactos sutiles, pero fuertes en la vida de las personas y la sociedad. Creo que tenemos que cambiar la forma en la que nos relacionamos con la ciencia de una manera no tan “naif” y reconocer o establecer cuáles son nuestros derechos frente a ella”.

Contrariamente a lo que se piensa, la IA no es algo nuevo en nuestras vidas. “En realidad, es de los últimos 50 -resaltó Fernández Slezak-. Ocurre cada vez que incorporamos más tecnología en nuestra vida cotidiana, y lo hacemos naturalmente. Sin embargo, lo que hoy genera mucha visibilidad es que está transformando la incorporación de herramientas que son muy llamativas, pero dentro de un contexto más amplio que es la inclusión de la ciencia para casi cualquier cosa que hacemos”.

EVOLUCIÓN

La enorme transformación del software a través de la inteligencia artificial permite emular varios aspectos de la inteligencia humana. Hoy es posible pedir un consejo a un sistema de IA sobre cómo redactar un trabajo práctico de la facultad; escribir un libro que podría estar entre los primeros productos en ventas de plataformas multinacionales; o entrevistar de forma ficticia a un personaje histórico. Basta redactar un Promt, (una orden con detalles específicos) para decirle a la Inteligencia Artificial qué y cómo se quiere resolver una determinada cuestión.

Tal es el caso de las imágenes que circularon en la redes sociales últimamente en las que se veía a un Papa Francisco musicalizando una fiesta o personajes femeninos artificiales que interactúan en la página de adultos OnlyFans. Ni hablar sobre la recreación de personalidades deportivas y de la política como Messi o Donald Trump, entre otros, en poses y situaciones totalmente distintas a las de su realidad.

La popularidad de esta herramienta abrió nuevamente diversos debates sobre su uso debido a que mientras algunos ven esta tecnología como una oportunidad, otros la perciben como una amenaza al empleo y al desarrollo e incluso a la existencia de los seres humanos. “Estos son los tipos de miedos que surgen siempre alrededor de la automatización. Cuando apareció la calculadora la gente pensaba lo mismo y es verdad que hay cálculos que ya no estamos acostumbrados a hacer. Sin embargo, eso nos permite poder enfocarnos en otras actividades más importantes”, resaltó Vanina Martínez.

Luego destacó que “las herramientas de automatización deberían ayudarnos a enfocarnos en trabajos y labores más críticos o creativos y en algún sentido también favorecen la inclusión y equiparan las posibilidades. Hay personas a las que no se les da bien escribir en otro idioma, pero este tipo de herramientas le ayudarán a poder hacer su trabajo bien, por ejemplo, en su lengua materna y replicarlo correctamente en otros lenguajes. Es también cuestión de cómo vamos incorporando estas herramientas en la educación ayudando a alumnos (de todos los niveles, incluso profesionales) a usarlas de manera que los empoderen y de manera crítica. Porque estos sistemas no son inteligentes como una persona, se equivocan y de maneras muy distintas a como lo hace un ser humano. Es importante aprender a usarlos de manera crítica”.

Así, hoy cualquiera puede convertirse en escritor y publicar un libro que potencialmente se sitúe dentro de las primeras 10 obras más vendidas. Esto genera debate sobre si el uso de la inteligencia artificial en la escritura es algo cercano a una trampa o, al menos, en el contexto de un proceso educativo para aprender a escribir o sumar. La balanza entre el esfuerzo, la holgazanería y el lenguaje promedio es un desafío para la sociedad en su conjunto.

Consultado al respecto, el director del Laboratorio de Inteligencia Artificial Aplicada de la UBA destacó: “Personas que antes no se animaban a transcribir sus ideas en un libro, ahora tienen esa oportunidad. Entonces, se gana por un lado y se pierde por el otro. Alguien que escribía muy mal, pero que tenía lindos conceptos, hoy es capaz de redactar un libro prolijamente escrito en un lenguaje promedio”.

EDUCACIÓN

Muchos estudiantes, sean del secundario o de la universidad, se quejan al tener que escribir trabajos y ensayos como tareas académicas. Con la inteligencia artificial, basta que el alumno introduzca en ChatGPT un texto con una o varias fuentes para comenzar a generar contenido mediante el uso de un conjunto de parámetros sobre un determinado tema. Esto luego se puede personalizar según las especificaciones del escritor.

Con un poco de práctica, cualquier persona que antes tardaba días en realizar su trabajo, hoy lo obtiene en minutos. Además, este sistema no se considera "plagio" debido a que no hubo un trabajo previo que se haya copiado y, por lo tanto, no hay un original que los detectores puedan reconocer.

“Soy contrario a toda esa línea que lo ve como un problema, al contrario. A mí me parece que el ChatGPT vino a poner en evidencia algo que muchos decían, yo entre ellos, sobre el sistema educativo: que es absolutamente obsoleto. Esta idea de tener una persona “sabelotodo”, que se para adelante en un aula e imparte conocimiento a un grupo de alumnos que calladitos escucha y que después les toma un examen escrito o un trabajo práctico en la casa para ponerle una nota del uno al diez y decidir que eso significa que aprendió, no sirve. Es la educación de hace 150 años”, afirmó Fernández Slezak.

Por otra parte, para este experto el modelo educativo está tan atrasado que ya no se debería hablar sobre matemática en la currícula escolar porque “es una herramienta minúscula dentro de todo el paraguas de cosas que ahora están vigentes. Hoy en día, que todavía se esté discutiendo cómo hacemos para agregar conceptos de computación, pero no me refiero a aprender a usar la computadora, sino de lenguajes de programación, de robótica y todo eso, ya no tiene ningún sentido”.

El docente enfatizó que “hay un montón de cosas que se aprendieron en los últimos 25 años en Neurociencia que permiten mejorar el aprendizaje y medirlo”.

Al ser consultada Martínez sobre si la IA limitará la incorporación del aprendizaje. sostuvo que “este tipo de herramientas pueden empoderar mucho a los estudiantes e incluso mejorar las metodologías de enseñanza. Para esto es necesario entender qué pueden hacer y qué no, abordarlas de manera crítica y responsable. Me parece muy interesante poderle plantear a quienes está aprendiendo que usen estas herramientas abiertamente, las critiquen, verifiquen los resultados y expongan las limitaciones como parte del ejercicio de usarlas”.

IMPLICANCIAS

La vida diario fue captada por los algoritmos sin que nos demos cuenta. Son una serie de instrucciones para encontrar la solución a un problema y los tenemos tan incorporados y naturalizados que cuando realizamos una búsqueda en el celular o en la computadora ni siquiera pensamos en los diferentes pasos a seguir, sino que actuamos automáticamente. Casi como hacer una torta o hacer volar un satélite en el espacio, las indicaciones respetando ciertos pasos dan como resultado alcanzar un objetivo.

Sin embargo, junto con múltiples ventajas, estas tecnologías también generan riesgos y desafíos, derivados de su uso malicioso o la profundización de las desigualdades. “Este fenómeno tiene muchas aristas sociales, políticas y técnicas. Por un lado, es cierto que los seres humanos tenemos un sesgo a la rápida adopción de herramientas tecnológicas en general. Supongo que tiene que ver con nuestra evolución y la supervivencia, cualquier cosa que nos facilite la vida es muy bienvenida”, recalcó la docente en el Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA.

Asimismo, agregó que “este sesgo que existe acerca de la neutralidad de la tecnología tiene que ver con una cuestión social y cultural donde se nos ha enseñado que las máquinas siempre son mejores, supongo que por una cuestión de maximización de recursos relativos a la economía. Es decir, la historia muestra que la automatización llevó a revoluciones que industrializaron aún más nuestra sociedad”.

Según Martínez, en algún sentido, esto sería un poco “de culpa” de la carrera de avances científicos que se viene llevando a cabo desde hace varias décadas, impulsada por los mercados, las grandes empresas tecnológicas e incluso los propios Estados por distintas razones y circunstancias. Los productos tienen que salir lo antes posible porque si no pierden su valor”

La especialista advierte que “en principio no pueden sacarse drogas o medicamentos sin que pasen por rigurosos protocolos. Hoy eso no existe para la generación de herramientas de software y mucho menos para las que usan inteligencia artificial, donde se usan modelos “recién sacados del laboratorio” probados de manera muy básica. Somos los usuarios los que probamos el sistema, descubrimos los errores y dependiendo del dominio de aplicación acarreamos con las implicancias”.

MARCO REGULATORIO

Para contrarrestar esto, países como España, Corea del Sur, India, Japón, Australia y Singapur establecieron estrategias para el desarrollo y el control de la tecnología. En Sudamérica Argentina, Uruguay, Brasil, Chile y Colombia vienen desarrollando iniciativas sobre ética y gobernanza, o Consejos Asesores o Grupos Interinstitucionales.

“Solo un marco legislativo puede a la vez fomentar la investigación y desarrollo de IA y proteger a los ciudadanos y a los propios estados. Claramente el mismo marco no servirá para todos los países y justamente por eso no es sencillo. Pero deberíamos ser capaces de regular nuestras creaciones, como lo hemos hecho en muchos otros ámbitos. La ciencia o la industria no puede hacer lo que quiera a costa del bienestar humano, no en la sociedad en la que vivimos hoy, las regulaciones y los marcos éticos son la base de una sostenibilidad socio- política-tecnológica”, aseguró la investigadora.

Desde las empresas de desarrollo de inteligencia artificial se ha manifestado preocupación por las limitaciones que estas posturas restrictivas podrían generar en el avance de esta tecnología. Martínez señaló: “Volviendo al caso de medicamentos, no podemos decir que se limitó el potencial o que se detuvo el avance científico en ese campo debido a las fuertes regulaciones que existen desde mitad del siglo pasado. Pero si hay algo que hay que tener en cuenta, la regulación tiene que estar diseñada de manera que no perjudique a organizaciones (científicas o productivas) con recursos limitados y fomente monopolios o solo permita sostener el oligopolio tecnológico que tenemos hoy”.

Entre los dilemas que surgirán en el corto y largo plazo en torno a la Inteligencia Artificial se destacan la problemática del copyright, de la valoración ética o legal de ciertas aplicaciones, como pueden ser el uso de herramientas que incorporan biometría para vigilancia, o en dispositivos y sistemas de diagnóstico y toma de decisiones médicos. “Ya estamos viendo algunas repercusiones en cuestiones laborales, donde trabajos que uno creía que eran irremplazables hoy pueden ser desarrollados bastante bien por sistemas basados en IA. Tal es el caso del doblaje o las traducciones. A mí me preocupa el uso malintencionado o criminal de esta tecnología. En el campo de la ciberseguridad tenemos un desafío muy grande para proteger los sistemas basados con esta innovación y que no sean presa de actores malintencionados que puedan provocar efectos dañinos en la sociedad e incluso vulnerar o poner en riesgo los derechos humanos”, resaltó la especialista.

Luego agregó que: “Relacionado con esto está la generación de contenido de manera automatizada combinada con sus capacidades de masificación. Este no es un problema de la tecnología, las noticias falsas, los mensajes de odio, la desinformación y manipulación existen desde que el humano es humano. Sin embargo, las tecnologías basadas en IA permiten crear contenido prácticamente indiscernibles del que genera un humano de manera muy fácil y la web permite desplegarlos por todo el planeta de manera inmediata. Es preocupante que no tenemos herramientas como usuarios para poder reconocer si el contenido que vemos es verdadero o falso, y peor aún si está destinado a manipularnos o engañarnos. Creo que esto es más bien un desafío para quienes creamos IA”.

Finalmente, más allá del temor, escepticismo y potencial que pueda tener esta tecnología que se encuentra a la mano de todo el mundo, existe un obstáculo que impide un mayor desarrollo en el país: la falta de recursos económicos para seguir investigando. “Se necesita mayor apoyo estatal a este tipo de carrera técnica. Es decir, tanto en los sueldos de los estudiantes de licenciatura y estudiantes de doctorado, como para los investigadores, profesores, entre otros. El presupuesto es ridículamente bajo para el potencial que tiene esta área en el país”, concluyó Fernández Slezak.