Advertisement
/cloudfront-eu-central-1.images.arcpublishing.com/prisa/YSLXXNLCLAX24XNQB3W2AQBTJ4.jpg)
No es la primera vez que la humanidad se enfrenta a un desarrollo tecnológico que tiene consecuencias imprevisibles para su propia existencia. El escritor Isaac Asimov ya ha crecido círculo vicioso, una historia publicada en 1942, tres reglas para proteger a los humanos de los robots y su base todavía se usa como referencia. El Organismo Internacional de Energía Atómica fue fundado en 1957 “en respuesta a los profundos temores y expectativas suscitados por los descubrimientos y múltiples usos de la tecnología nuclear”, dice la propia organización.El derecho internacional humanitario (conocido como derecho de la guerra) ha buscado durante años para regular de manera efectiva los sistemas de armas autónomas letales que pueden atacar sin intervención humana. Europa ha comenzado ahora a redactar las primeras regulaciones del mundo sobre inteligencia artificial (IA), un desarrollo tecnológico que puede acelerar el progreso en áreas fundamentales como la salud o la energía, pero también amenazar las democracias, aumentar la discriminación o romper todas las restricciones de privacidad. “De nada sirve sembrar un pánico infundado, al contrario. La inteligencia artificial seguirá funcionando y hay que mejorarla y prevenirla”, defiende Cecilia Danesi, multiplicadora y abogada especialista en IA y derechos digitales, profesora en varias universidades internacionales y autora de El reino de los algoritmos (recién publicado por Galerna).
Lo primero que hay que entender es qué es un algoritmo, la base de la inteligencia artificial. Danesi, investigadora del Instituto de Estudios Europeos y Derechos Humanos, lo describe en su obra, un compendio fundamental para entender el escenario al que se enfrenta la humanidad, como “una serie metodológica de pasos que pueden servir para hacer cálculos para resolver problemas, resolver y alcanzar objetivos. «Decisiones». De esta forma, el algoritmo no es el cálculo sino el método. Y esto puede incluir el modelo exacto para identificar un cáncer en imágenes, descubrir una nueva molécula con utilidad farmacológica, hacer más eficiente un proceso industrial, desarrollar un nuevo tratamiento o, por el contrario, generar discriminación, información falsa, etc. .imagen humillante o una situación injusta.
El director de OpenAI Sam Altman, el ganador del Premio Turing Geoff Hinton, el investigador de IA Yoshua Bengio y Elon Musk, entre otros, han pedido regulación y acción urgente para abordar los «riesgos existenciales» que la IA representa para la humanidad. Estos incluyen el aumento y la amplificación de la desinformación (como el predominio de contenido falso y malicioso en las plataformas sociales), los prejuicios que refuerzan las desigualdades (como el sistema de crédito social chino o la consideración mecánica de las personas como riesgos potenciales en función de su etnia). o romper todas las barreras de privacidad para recopilar los datos que alimentan el algoritmo y que permanecen ocultos.
La Unión Europea ha comenzado a negociar la primera ley de IA del mundo si se cumplen los plazos. Podría adoptarse durante la Presidencia española de la UE y tiene como objetivo prevenir los usos considerados «riesgos inaceptables» (reconocimiento facial indiscriminado o manipulación del comportamiento de las personas), regular su uso en ámbitos como la sanidad y la educación e imponer sanciones e impedir la venta de sistemas que no cumplir con la legislación.
Advertisement
La Unesco ha desarrollado un marco ético voluntario, pero precisamente este carácter es su mayor debilidad. China y Rusia, dos países que utilizan esta tecnología para la vigilancia masiva de la población, firmaron los principios.
“Se trata de derechos fundamentales y es un tema que tenemos que tratar y cuidar, sí, pero con equilibrio”, defiende Danesi. Es un criterio similar al de Juhan Lepassaar, Director Ejecutivo de la Agencia Europea de Ciberseguridad (Enisa por sus siglas en inglés): «Si queremos proteger los sistemas de inteligencia artificial y al mismo tiempo garantizar la privacidad, debemos observar cómo funcionan esos sistemas. ENISA explora la complejidad técnica de la IA para mitigar mejor los riesgos de ciberseguridad. También debemos encontrar el equilibrio adecuado entre la seguridad y el rendimiento del sistema”.
Uno de los riesgos descubiertos hasta ahora es la sustitución de humanos por máquinas controladas por IA. En ese sentido, la investigadora Cecilia Danesi afirma: “Las máquinas nos van a reemplazar y ya lo están haciendo”. Hay muchas que nos reemplazan, enriquecen el trabajo o nos complementan. La pregunta es qué y dónde queremos ser reemplazados y cuáles son los requisitos que deben cumplir estas máquinas para tomar ciertas decisiones. Primero necesitamos identificar un problema o necesidad que justifique su uso o no”.
En el campo de la robótica, Asimov ya previó este problema y estableció tres principios: 1) un robot no dañará a un humano ni permitirá que se cause daño por inacción; 2) Un robot obedece las órdenes que recibe de un humano, a menos que las órdenes entren en conflicto con la primera ley; y 3) Un robot protege su propia existencia en la medida en que dicha protección no entre en conflicto con la primera y la segunda ley.
Atención constante y preventiva.
«Eso tiene muy buena pinta. Hecho: la inteligencia artificial nunca puede hacer daño a un ser humano. Divino. El problema es que en la práctica no está tan claro», explica Danesi. El investigador recuerda «un caso en el que se programaron dos máquinas así para optimizar un negociación, y el sistema se dio cuenta de que la mejor manera era crear otro lenguaje más eficiente”. Quienes diseñaron el programa no podían entender ese lenguaje y los separaron. El sistema pasó a manejarse dentro de unos parámetros, pero la inteligencia artificial puede ir más allá de lo imaginado , en cuyo caso la máquina no ha perjudicado a sus programadores sino que los ha excluido de la solución y sus consecuencias.
La clave, según Danesi, está en «el monitoreo constante y las revisiones algorítmicas de estos sistemas de alto riesgo que pueden tener impactos significativos en materia de derechos humanos o de seguridad. Deben ser evaluados y controlados para asegurarse de que no violan los derechos y son libre de prejuicios. Y esto debe hacerse continuamente, porque si los sistemas están aprendiendo constantemente, pueden generar sesgos. Y se deben tomar medidas preventivas para evitar daños y crear sistemas que sean éticos y respeten los derechos humanos”.
Otro gran peligro del uso descontrolado de la IA es su uso con fines militares. La propuesta de reglamento de la UE excluye este aspecto en la primera redacción. “Es uno de los usos más peligrosos de la inteligencia artificial. Las leyes a menudo prohíben algo que luego sigue funcionando en la práctica y puede hacer el mayor daño a las personas”, lamenta el investigador.
“¿Deberíamos tener miedo a las máquinas? ¡La respuesta es no! Si es necesario, tenemos que hacer que la gente tenga miedo de usar la tecnología”, defiende Danesi en su obra El reino de los algoritmos.
Respeto a los datos ciudadanos
Manuel R. Torres, Catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del Consejo Asesor del Real Instituto Elcano, hizo una declaración similar. “El problema es la proliferación de una tecnología que se debe evitar que caiga en las manos equivocadas.” No es simplemente conocimiento lanzado al mundo para que cualquiera pueda utilizarlo.
Torres añade un problema al escenario tecnológico y a la propuesta de regulación europea que defiende como potestad normativa: “El conflicto es cómo se desarrolla esta tecnología en otros ámbitos donde no hay escrúpulos ni limitaciones de respeto” por la privacidad de los ciudadanos que lo alimentan todo con sus datos”.
El politólogo pone como ejemplo el caso de China: «No es sólo en esta carrera tecnológica, tampoco tiene problema en utilizar masivamente los datos que dejan sus propios ciudadanos para abastecer y mejorar estos sistemas». lidiar con las limitaciones que imponemos a nuestros desarrolladores locales, si no se hace globalmente, también es peligroso al final del día».
Torres concluye: “Estamos en un área donde hay pocos referentes en los que podamos apoyarnos para saber cómo abordar el tema y también donde hay temas que impactan para entender esta tecnología”. desarrollos.”
puedes seguir EL PAÍS Tecnología En Facebook Y Gorjeo o regístrate aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir leyendo
Leer sin limites