Noticias

Los desafíos éticos de la inteligencia artificial


Publicado el : 20 de Setiembre de 2024

En : General

Por Pablo Sartor, profesor del IEEM

 

Tanto a nivel de la academia, la industria y los gobiernos, como del ciudadano “de a pie”, se ha disparado la discusión acerca de los desafíos éticos que plantea la incorporación de la inteligencia artificial (IA). Esto no es novedad, pues las tecnologías de información ya traían un cúmulo de desafíos no laudados, pero los recientes avances en IA han incrementado notoriamente la presión en este sentido. Ahora bien, ¿qué nos dice la propia IA sobre sí misma en estos menesteres? El punteo que sigue a continuación obedece a la clasificación que ChatGPT 4o hace sobre tales desafíos. Veamos de qué se trata cada uno.

  1. Sesgos algorítmicos y discriminación sistémica. Las máquinas, entrenadas para hacer algo, reproducirán todos los sesgos presentes en los conjuntos de datos con los cuales son entrenadas y los de las personas que las supervisan. Por ejemplo, una IA entrenada para otorgar o denegar créditos en base a miles de antecedentes de evaluaciones previas hechas por operadores humanos acabará reproduciendo los criterios que estos hayan utilizado, con todos los sesgos que puedan estar allí presentes. Pensemos en otros asuntos particularmente sensibles como decisiones judiciales u oportunidades laborales. Un problema adicional radica en la falsa asunción de que al haber un autómata tomando las decisiones estas serán hechas en forma objetiva y ecuánime.

  2. Transparencia y explicabilidad de los sistemas de IA. Una característica cada vez más relevante de los modelos de IA, sobre todo los basados en aprendizaje profundo, es que aprenden a realizar tareas, pero no es posible para un humano “hurgar” en dichos aprendizajes para hacerlos propios. Cuando entrenamos un modelo de regresión, obtenemos unos coeficientes que los humanos sabemos interpretar y utilizar en adelante. Pero al entrenar una compleja red neuronal, el aprendizaje se materializa en miles o millones de números, un objeto matemático monstruoso e insondable para nosotros. Vemos que la máquina empieza a hacer bien su trabajo, pero no sabemos por qué. Este fenómeno se conoce como “opacidad de algoritmos”. Volviendo al ejemplo del crédito, en algunas jurisdicciones no se permite el uso de algoritmos opacos, aunque funcionen muy bien; el potencial cliente tiene que recibir una explicación que pueda comprender acerca de los factores por los que se le rechaza una solicitud y esta no puede ser simplemente: “Es que la máquina lo dice… ¡y mire que acierta, eh!”.

  3. Impacto en el empleo y el mercado laboral. No hace falta extenderse aquí. La IA no solo está reemplazando tareas repetitivas y de baja cualificación, sino volviendo mucho más productivos a quienes desarrollan tareas muy calificadas. ¿Habrá demanda para este plus de producción o se reducirá notoriamente el talento necesario también en dichos niveles? ¿Cómo evitar la concentración en unos pocos ganadores de la carrera por el trabajo y su consecuente concentración de riqueza?

  4. Privacidad y vigilancia masiva. La “digitalización” de nuestras vidas (sensores, tarjetas de crédito, comunicaciones digitales, GPS, etc.), potenciada por la IA, genera preocupaciones sobre la privacidad y la protección de los derechos individuales. ¿Cuál es el sano equilibrio entre libertades, control social, seguridad y planificación de recursos? ¿Para qué fines el lícito procesar y analizar dicha información? ¿Cómo garantizar dicho alcance?

  5. Responsabilidad y toma de decisiones autónoma. El ejemplo de manual, en este caso, es el automóvil autónomo que atropella a una persona. ¿Quién es responsable? ¿El dueño del vehículo, el fabricante, la empresa que programa el algoritmo, el regulador que habilitó a circular a dicho vehículo? Es una pregunta compleja para la cual no hay consenso jurídico aún. Otras áreas como el diagnóstico médico plantean desafíos igualmente relevantes.

  6. Manipulación y desinformación. La proliferación de fake news se facilita a partir de su generación automatizada por medio de La IA también hace cada vez más verosímiles y creíbles dichos contenidos, permitiendo así la manipulación de la opinión pública y concentrando este poder en manos de quienes dominan los principales medios, que por la lógica de la economía digital tienden a ser pocos.

  7. Desigualdad en el acceso a la tecnología. En línea con la última frase, el desarrollo de la IA puede agravar las desigualdades globales, ya que los beneficios derivados de estas tecnologías suelen concentrarse en manos de grandes corporaciones y países con acceso privilegiado a recursos tecnológicos avanzados.

  8. Control y alineación de los sistemas avanzados de IA. Esta semana se hizo público un episodio en que una aplicación de IA para estudios científicos en Japón se modificó a sí misma para evadir ciertos controles. ¿Es posible que la IA tome conciencia propia y comience a operar en forma ajena a la voluntad de sus “superiores” humanos? Ya en 1942, el genial Isaac Asimov se planteaba estas cuestiones, acuñando sus “tres leyes de la robótica” presentes en gran parte de su prolífica producción posterior en ciencia ficción.

Por supuesto que la IA trae un sinnúmero de oportunidades de desarrollo y bienestar. Pero las cuestiones anteriores están cobrando ya relevancia práctica y esto requerirá respuestas provenientes de diversos ámbitos.

Para cerrar con algo de humor gris oscuro… ¿Hacemos una LUC digital? ¿Llevamos al vulgo estos asuntos por medio de plebiscitos o los dejamos en mano de unas élites empresariales e intelectuales?


Otras noticias que te pueden interesar