body{ background-image:url(https://sites.google.com/site/acemarmar/fotos/fotos%20fav.jpg); background-position:center; background-repeat:no-repeat; background-attachment:fixed; -moz-background-size: cover;-webkit-background-size: cover;background-size: cover; }

noticias Recientes

8/recent/ticker-posts

La ONU advierte que la inteligencia artificial puede representar una amenaza "negativa, incluso catastrófica" para los derechos humanos

 Escrito por Katabella Roberts a través de La Gran Época,

Las Naciones Unidas han advertido que los sistemas de inteligencia artificial (IA) pueden representar una amenaza "negativa, incluso catastrófica" para los derechos humanos y han pedido que se prohíban las aplicaciones de IA que no se utilizan en cumplimiento de los derechos humanos.

El 15 de septiembre, la jefa de derechos humanos de la ONU, Michelle Bachelet, instó a los Estados miembros a prohibir temporalmente la venta y el uso de la IA hasta que se hayan abordado los riesgos potenciales que plantea y se hayan establecido las salvaguardas adecuadas para garantizar que no se abuse de la tecnología.

"No podemos darnos el lujo de seguir jugando a ponernos al día con respecto a la IA, permitiendo su uso con límites limitados o sin supervisión y lidiando con las consecuencias casi inevitables para los derechos humanos después del hecho". Bachelet dijo en un comunicado.

"El poder de la IA para servir a las personas es innegable, pero también lo es la capacidad de la IA para alimentar las violaciones de derechos humanos a una escala enorme prácticamente sin visibilidad. Se necesita actuar ahora para poner barandillas de derechos humanos en el uso de la IA, por el bien de todos nosotros", agregó el jefe de derechos humanos.

Sus comentarios se producen poco después de que su oficina publicara un informe que analiza cómo la IA afecta el derecho a la privacidad de las personas, así como una serie de otros derechos relacionados con la salud, la educación, la libertad de movimiento y la libertad de expresión, entre otros.

El documento incluye una evaluación de la elaboración de perfiles, la toma de decisiones automatizada y otras tecnologías de aprendizaje automático.

Si bien el informe señala que la IA se puede utilizar para un buen uso y puede ayudar a "las sociedades a superar algunos de los grandes desafíos de nuestros tiempos", su uso como herramienta de pronóstico y elaboración de perfiles puede afectar drásticamente "los derechos a la privacidad, a un juicio justo, a la libertad de arrestos y detenciones arbitrarias y al derecho a la vida".

Según el informe, numerosos estados y empresas a menudo no llevan a cabo la debida diligencia mientras se apresuran a incorporar aplicaciones de IA, y en algunos casos, esto ha resultado en errores peligrosos, con algunas personas que, según los informes, son maltratadas e incluso arrestadas debido a un software de reconocimiento facial defectuoso.

Mientras tanto, el reconocimiento facial tiene el potencial de permitir el seguimiento ilimitado de las personas, lo que puede conducir a una serie de problemas relacionados con la discriminación y la protección de datos.

Un robot de IA (L) de CloudMinds se ve durante la Mobile World Conference en Shanghai el 27 de junio de 2018. (-/AFP/Getty Images)

Como muchos sistemas de IA dependen de grandes conjuntos de datos, otros problemas relacionados con la forma en que se almacenan estos datos a largo plazo también plantean un riesgo, y existe la posibilidad de que dichos datos se exploten en el futuro, lo que podría presentar riesgos significativos para la seguridad nacional.

"La complejidad del entorno de datos, los algoritmos y los modelos subyacentes al desarrollo y operación de los sistemas de IA, así como el secreto intencional de los actores gubernamentales y privados son factores que socavan las formas significativas para que el público comprenda los efectos de los sistemas de IA en los derechos humanos y la sociedad", afirma el informe.

Los visitantes observan un sistema de ciudad inteligente de IA de iFLY en la Exposición Internacional de la Industria del Transporte Inteligente 2018 en Hangzhou, en la provincia oriental china de Zhejiang, en diciembre de 2018. (STR/AFP/Getty Images)

Tim Engelhardt, un oficial de derechos humanos en la Sección de Estado de Derecho y Democracia, advirtió que la situación es "grave" y que solo ha empeorado a lo largo de los años a medida que algunos países y empresas adoptan aplicaciones de IA mientras no investigan los múltiples riesgos potenciales asociados con la tecnología.

Si bien acoge con satisfacción el acuerdo de la UE para "fortalecer las reglas de control", señaló que una solución a la miríada de problemas que rodean a la IA no llegará en el próximo año y que los primeros pasos para resolver estos problemas deben tomarse ahora o "muchas personas en el mundo pagarán un alto precio".

"Cuanto mayor sea el riesgo para los derechos humanos, más estrictos deberían ser los requisitos legales para el uso de la tecnología de IA". Agregó Bachelet.

El informe y los comentarios de Bachelet se producen después de las revelaciones de julio de que el spyware, conocido como Pegasus, se utilizó para hackear los teléfonos inteligentes de miles de personas en todo el mundo, incluidos periodistas, funcionarios gubernamentales y activistas de derechos humanos.

El teléfono del ministro de Finanzas de Francia, Bruno Le Maire, fue solo uno de los muchos que se investigaron en medio del hackeo a través del spyware, que fue desarrollado por la compañía israelí NSO Group.

NSO Group emitió una declaración a múltiples medios que no abordaron las acusaciones, pero dijo que la compañía "continuará proporcionando inteligencia y agencias de aplicación de la ley en todo el mundo con tecnologías que salvan vidas para combatir el terrorismo y el crimen".

Hablando en la audiencia del Consejo de Europa sobre las implicaciones derivadas de la controversia del spyware Pegasus, Bachelet dijo que las revelaciones no fueron una sorpresa, dado el "nivel sin precedentes de vigilancia en todo el mundo por parte de actores estatales y privados".

0

Publicar un comentario

0 Comentarios