Es necesario establecer urgentemente una moratoria a la venta y el uso de los sistemas de inteligencia artificial (IA) que amenazan gravemente a los derechos humanos, hasta que se hayan puesto en vigor las salvaguardas adecuadas. La Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet pides que se prohíban los programas de AI cuyo uso no cumpla con la normativa internacional de derechos humanos.
“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es uno de los cometidos más urgentes que afrontamos en materia de derechos humanos”, dijo Bachelet.
GINEBRA (15 de septiembre de 2021) –
La Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, enfatizó el miércoles la urgente necesidad de establecer una moratoria a la venta y el uso de los sistemas de inteligencia artificial (IA) que amenazan gravemente a los derechos humanos, hasta que se hayan puesto en vigor las salvaguardas adecuadas. Bachelet pidió además que se prohíban los programas de AI cuyo uso no cumpla con la normativa internacional de derechos humanos.
“La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”, declaró Bachelet.
“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, añadió la Alta Comisionada. “Pero dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”.
Como parte de su labor* en materia de tecnología y derechos humanos, la Oficina de Derechos Humanos de la ONU publica hoy un informe en el que se analiza cómo la IA -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos, incluidos los relativos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica, y la libertad de expresión.
“La inteligencia artificial llega ahora a casi todos los rincones de nuestras vidas, e incluso alcanza a nuestros estados emocionales. Los sistemas de IA se usan para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo y, por supuesto, afectan a la información que la gente ve y que puede compartir en Internet”, señaló la Alta Comisionada.
En el informe se examina cómo a menudo los Estados y las empresas se han precipitado a incorporar los programas informáticos de IA sin ejercer la diligencia debida. Ha habido muchos casos de personas que han sido injustamente tratadas a causa de la IA, ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial.
En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos. Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad.
“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es uno de los cometidos más urgentes que afrontamos en materia de derechos humanos”, dijo Bachelet.
Las deducciones, predicciones y actividades de seguimiento que llevan a cabo las herramientas de IA, incluida la búsqueda de pautas de conducta humana, plantean también graves interrogantes. Las bases de datos sesgadas en los que a menudo se basan los sistemas de IA pueden conducir a la adopción de decisiones discriminatorias, un riesgo que es más acentuado cuando se trata de grupos que ya se encuentran marginados.
Consulte aquí el texto íntegro del informe https://www.ohchr.org/SP/NewsEvents/Pages/DisplayNews.aspx?NewsID=27469&LangID=S
Fuente @onuderechoshumanos
• • • • • •