body{ background-image:url(https://sites.google.com/site/acemarmar/fotos/fotos%20fav.jpg); background-position:center; background-repeat:no-repeat; background-attachment:fixed; -moz-background-size: cover;-webkit-background-size: cover;background-size: cover; }

noticias Recientes

8/recent/ticker-posts

Llega el momento del "Informe de minorĂ­as": Amazon, Facebook, lectura de emociones humanas


Escrito por Aaron Kesel a través de ActivistPost.com,
La locura de Facebook y Amazon solo parece continuar sin signos de desaceleraciĂ³n en el corto plazo. Ahora, los dos gigantes conglomerados grandes quieren moverse hacia el territorio inexplorado de leer las emociones humanas, ambos a su manera.

Facebook quiere un robot que tenga cinco sentidos que puedan leer emociones humanas . Facebook quiere robots "emocionalmente sensibles" que puedan explorar el mundo, identificar objetos y personas y permitir a sus usuarios hacer mĂ¡s amigos, informĂ³ Dailymail .
Los robots estarĂ­an equipados con ruedas o huellas de oruga similares a un tanque que les permitirĂ­an andar sobre su entorno.
Alternativamente, tales robots podrĂ­an equiparse con sistemas de manejo que les permitirĂ­an moverse bajo el agua, volar por el aire o flotar en el espacio, como sugiere Facebook en su patente.
No estoy seguro de por quĂ© alguien volverĂ­a a confiar en Facebook con datos, por no hablar de datos biomĂ©tricos, despuĂ©s de todos los numerosos escĂ¡ndalos que el Activista Post ha documentado, incluida la extracciĂ³n de datos . Pero a cada uno lo suyo, supongo.
Amazon tambiĂ©n estĂ¡ estudiando la lectura de las emociones humanas de una forma completamente diferente mediante el uso de un dispositivo portĂ¡til activado por voz, que detectarĂ¡ el estado de Ă¡nimo de su portador por el tono de voz , informĂ³ Bloomberg .
Vale la pena señalar que ambas empresas tienen un dispositivo domĂ©stico inteligente y, despuĂ©s de leer esto, debe temer quĂ© informaciĂ³n estĂ¡n reuniendo las cĂ¡maras y los micrĂ³fonos conectados a esos dispositivos electrĂ³nicos ... ademĂ¡s de la publicidad dirigida para convertir a los consumidores en productos.
En el frente de Amazon, parece mĂ¡s que probable que la compañía quiera usar esta tecnologĂ­a en una variedad de dispositivos digitales diferentes, que van desde asistentes personales como Alexa hasta nuevas tecnologĂ­as que el gigante minorista estĂ¡ desarrollando actualmente. Amazon ha anunciado que estĂ¡ desarrollando un robot de asistencia personal, por lo que la nueva tecnologĂ­a emocional podrĂ­a integrarse fĂ¡cilmente en este robot domĂ©stico como un medio para "servir mejor al consumidor". Un pensamiento terriblemente aterrador.
Amazon y Facebook no son las Ăºnicas compañías que buscan utilizar emociones humanas. Anteriormente, Activist Post informĂ³ que Walmart tambiĂ©n estaba estudiando la supervisiĂ³n de sus datos biomĂ©tricos, el pulso y la ubicaciĂ³n de los sensores en el asa de un carrito de compras.
Esta noticia llega cuando cientos de tiendas minoristas, y pronto miles, estĂ¡n investigando el uso del software de reconocimiento facial biomĂ©trico FaceFirst para crear una base de datos de ladrones para ayudar en la lucha contra el robo , informĂ³ Activist Post .
FaceFirst estĂ¡ diseñado para escanear caras a una distancia de 50 a 100 pies. Cuando los clientes caminan por la entrada de una tienda, la cĂ¡mara de video captura imĂ¡genes repetitivas de cada comprador y elige la mĂ¡s clara para almacenar. Luego, el software analiza esa imagen y la compara con una base de datos de "malos clientes" que el minorista ha compilado; si hay una coincidencia, el software envĂ­a una alerta a los empleados de la tienda que un cliente de "alto riesgo" ha entrado por la puerta.
El futuro de las compras parece aludir a tener escĂ¡neres biomĂ©tricos escritos por todas partes, una perspectiva preocupante para los entusiastas de la privacidad.
Varios grupos defensores de la privacidad, abogados e incluso recientemente Microsoft, que tambiĂ©n comercializan su propio sistema de reconocimiento facial , han expresado su preocupaciĂ³n por la tecnologĂ­a, señalando problemas de consentimiento, perfiles raciales y el potencial de usar imĂ¡genes recopiladas a travĂ©s de cĂ¡maras de reconocimiento facial como Pruebas de culpabilidad penal por parte de la policĂ­a.
"No queremos vivir en un mundo donde los burĂ³cratas del gobierno pueden ingresar su nombre en una base de datos y obtener un registro de dĂ³nde ha estado y cuĂ¡les son sus asociaciones y actividades financieras, polĂ­ticas, sexuales y mĂ©dicas", Jay Stanley, un abogado de ACLU, dijo a BuzzFeed News sobre el uso de cĂ¡maras de reconocimiento facial en tiendas minoristas.
"Y no queremos un mundo en el que las autoridades paren y molesten a las personas porque se asemejan a algĂºn personaje aterrador".
Sin embargo, la tecnologĂ­a de reconocimiento facial actualmente tiene muchos problemas. Activist Post tambiĂ©n ha informado cĂ³mo el software de "RekogniciĂ³n" facial de Amazon identificĂ³ errĂ³nea e hilaramente a 28 miembros del Congreso como personas que han sido arrestadas por delitos.
El activista Post informĂ³ anteriormente sobre otra prueba de la tecnologĂ­a de reconocimiento facial en Gran Bretaña que resultĂ³ en 35 coincidencias falsas y 1 arresto errĂ³neo. TambiĂ©n informamos recientemente sobre un organismo de control que observa los juicios de la PolicĂ­a Metropolitana del Reino Unido. Big Brother Watch declarĂ³ que la tecnologĂ­a ha identificado errĂ³neamente a miembros del pĂºblico, incluido un niño negro de 14 años con un uniforme escolar que fue detenido e huella digital por la policĂ­a, como posibles delincuentes en hasta el 96 por ciento de las exploraciones.
Mientras tanto, en el otro lado del estanque en los EE. UU., La Oficina de Responsabilidad del Gobierno de los EE. UU. (GAO, por sus siglas en inglĂ©s) ha declarado que la tecnologĂ­a de reconocimiento facial que usa el FBI para las pruebas de privacidad y precisiĂ³n del Sistema de fotos interestatales interestatales de identificaciĂ³n de prĂ³xima generaciĂ³n, como lo informĂ³ Activist Post .
En 2018 se informĂ³ que el FBI y otras agencias de aplicaciĂ³n de la ley estaban utilizando esta misma tecnologĂ­a de reconocimiento facial de Amazon para analizar los datos de vigilancia.
Defense One informa que "las cĂ¡maras habilitadas para la IA que detectan el crimen antes de que ocurra pronto invadirĂ¡n el mundo fĂ­sico" estĂ¡n en las obras y en exhibiciĂ³n en ISC West, una reciente conferencia sobre tecnologĂ­a de seguridad en Las Vegas.
Activist Post ha informado previamente , a su manera, que el aumento de la tecnologĂ­a de reconocimiento facial es inevitable y, como resultado, la muerte de la privacidad seguramente vendrĂ¡ con Ă©l.
El hecho de que cientos de tiendas minoristas quieran una tecnologĂ­a de reconocimiento facial es una idea aterradora. Pero combinado con los datos biomĂ©tricos, esa es una perspectiva aĂºn mĂ¡s aterradora para nuestro futuro en lo que respecta al carrito que puede leer los datos emocionales de un humano, incluida la detecciĂ³n de estrĂ©s.
Si bien el dispositivo portĂ¡til de Amazon se podrĂ¡ usar para atraer a los consumidores, tal vez no al principio, pero con el tiempo la tecnologĂ­a considerada como “salud y bienestar” seguramente se usarĂ¡ para publicidad cuando se conecte a otros productos de Amazon.
Cada vez mĂ¡s, nuestros derechos estĂ¡n disminuyendo con la ayuda de grandes corporaciones como Amazon, Facebook y Walmart. Nuestra privacidad estĂ¡ desapareciendo a un ritmo alarmante en el comercio por conveniencia.
Como se escribiĂ³ anteriormente , “estamos ingresando en el Informe de MinorĂ­as; no hay vuelta atrĂ¡s despuĂ©s de que esta tecnologĂ­a sea pĂºblica y los ciudadanos estĂ©n adoctrinados de que es 'por su seguridad' ”.
En ese momento, estamos oficialmente intercambiando libertad y privacidad por seguridad. Como dijo Benjamin Franklin, "Aquellos que renunciarĂ­an a Liberty esencial, para comprar un poco de seguridad temporal, no merecen ni Liberty ni Seguridad".

Publicar un comentario

0 Comentarios