body{ background-image:url(https://sites.google.com/site/acemarmar/fotos/fotos%20fav.jpg); background-position:center; background-repeat:no-repeat; background-attachment:fixed; -moz-background-size: cover;-webkit-background-size: cover;background-size: cover; }

noticias Recientes

8/recent/ticker-posts

El cofundador de Skype está "desesperado" por salvar a la humanidad de AI


Escrito por Mac Slavo a través de SHTFplan.com,
El cofundador de Skype, Jaan Tallinn, está en una misión desesperada para salvar a la raza humana de la destrucción de la inteligencia artificial. Desde 2007, Tallin ha dedicado más de $ 1 millón para evitar que las IA super inteligentes reemplacen a los humanos como las especies dominantes de la Tierra y destruyan a la humanidad en el proceso.

Según un interesante artículo de Popular Science , el programador descubrió el ensayo Staring into the Singularity , investigador de inteligencia artificial de AI, Eliezer Yudkowsky, en 2007, dos años después de cobrar sus acciones de Skype luego de la venta de la startup a eBay. Fue entonces cuando Tallinn comenzó a invertir dinero en la causa de salvar a la humanidad de AI.
Hasta ahora, [Tallinn] ha otorgado más de $ 600,000 al Instituto de Investigación de Inteligencia de la Máquina, la organización sin fines de lucro en la que Yudkowsky es investigador. También le dio $ 310,000 al Instituto de la Humanidad del Futuro de la Universidad de Oxford, que PopSci lo cita como "el lugar más interesante del universo". - Futurismo
Es un objetivo elevado y puede que no tenga mucho efecto. Tallin es estratégico sobre sus donaciones, sin embargo. Distribuye su dinero entre 11 organizaciones, cada una de las cuales trabaja en diferentes enfoques para la seguridad de AI, con la esperanza de que uno pueda quedarse. En 2012, cofundó el Centro de Cambridge para el Estudio del Riesgo Existencial (CSER) con un desembolso inicial de casi $ 200,000.
Tallin dice que la inteligencia artificial súper inteligente trae amenazas únicas a la raza humana.
En última instancia, espera que la comunidad de AI siga el liderazgo del movimiento antinuclear en la década de 1940. A raíz de los bombardeos de Hiroshima y Nagasaki, los científicos se dieron cuenta de la fuerza destructiva de las armas nucleares y se unieron para tratar de limitar las pruebas nucleares.
"Los científicos del Proyecto Manhattan podrían haber dicho: 'Mira, estamos haciendo innovación aquí, y la innovación siempre es buena, así que vamos a dar un paso adelante'" , me dice.
"Pero eran más responsables que eso".
Tallin dice que debemos asumir la responsabilidad de lo que creamos y que la inteligencia artificial, una vez que alcanza la singularidad, tiene el potencial de dominar y burlar a los seres humanos. Si una IA es lo suficientemente inteligente, explica, podría comprender mejor las limitaciones que tienen sus creadores.
Imagínese, dice, "despertarse en una prisión construida por un grupo de ciegos de 5 años".
Es muy probable que sea lo que podría ser para una inteligencia artificial súper inteligente que está confinada por los humanos.

Publicar un comentario

0 Comentarios