Tecnología
Domingo 04 agosto de 2019 | Publicado a las 11:40
Los errores de privacidad y polémicas que ensombrecen a los asistentes digitales de voz
Por Bernardita Villa
La información es de Agence France-Presse
visitas

Una series de errores de privacidad en meses recientes han suscitado nuevas preocupaciones sobre el futuro de los asistentes digitales de voz, un mercado en crecimiento considerado por algunos como la próxima frontera de la computación.

Los incidentes recientes en los que se han visto involucrados dispositivos de las gigantes Google, Apple y Amazon ponen de manifiesto que a pesar del fuerte crecimiento en el mercado para los dispositivos y los altavoces inteligentes, es necesario trabajar más para garantizar a los consumidores la protección de sus datos cuando utilizan esta tecnología.

Apple dijo esta semana que suspend√≠a su programa “Siri grading”, en el cual la gente escucha fragmentos de conversaci√≥n para mejorar la tecnolog√≠a de reconocimiento de voz, despu√©s de que el peri√≥dico londinense The Guardian report√≥ que los contratistas estaban escuchando informaci√≥n m√©dica confidencial, asuntos criminales e incluso encuentros sexuales.

“Estamos comprometidos con ofrecer una gran experiencia Siri mientras protegemos la privacidad del usuario”, dijo Apple en un comunicado, agregando que permitir√≠a a los consumidores optar por esta funci√≥n en una actualizaci√≥n futura del software.

Google, mientras tanto, sostuvo que haría una pausa en las escuchas y transcripción de conversaciones en la Unión Europea (UE) de su Asistente de Google, a raíz de una investigación privada en Alemania.

De su lado, Amazon, que ha reconocido el uso de asistentes humanos para mejorar la inteligencia artificial que alimenta a su dispositivo Alexa, recientemente anunció una nueva función que facilita borrar toda la información grabada.

Los casos recientes pueden dar a los consumidores la impresi√≥n de que alguien esta “escuchando” sus conversaci√≥n aunque rara vez sea cierto.

“Desde una perspectiva tecnol√≥gica no es sorprendente que esas compa√Ī√≠as usen humanos para anotar estos datos, porque las m√°quinas no son lo suficientemente buenas para entender todo”, dijo Florian Schaub, un profesor de una University of Michigan especializado en interacci√≥n entre el computador y los humanos y quien ha hecho investigaciones en asistentes digitales.

“El problema es que las personas no lo esperan y ello no se les comunica de manera transparente”, acot√≥.

Carolina Milanesi, una analista en tecnología de Creative Strategies, está de acuerdo en que se necesitan seres humanos para mejorar la tecnología.

“La gente tiene una expectativa algo irreal de que estos asistentes mejorar√°n por arte de magia, que la m√°quina pude aprender y ser mejor por s√≠ misma, pero seguimos estando en los comienzos de la IA (inteligencia artificial), y la intervenci√≥n humana sigue siendo importante”, se√Īal√≥.

De acuerdo con la firma de investigaci√≥n eMarketer, cerca de 112 millones de personas -un tercio de la poblaci√≥n de Estados Unidos- utilizar√° un asistente de voz al menos una vez al mes en alg√ļn dispositivo, varios alimentados por IA para b√ļsquedas, oir m√ļsica y noticias o informaci√≥n.

Una encuesta de Microsoft entre consumidores de cinco países encontró que el 80% estaban satisfechos con su experiencia con los asistentes digitales. Pero 41% de los encuestados dijo que había tenido preocupaciones sobre la privacidad, la confianza y las escuchas.

¬ŅTemores infundados?

Algunos de los temores que rodean a los altavoces inteligentes est√°n basados en suposiciones falsas, dijeron los analistas.

Los dispositivos no graban o transmiten informaci√≥n hasta que son “activados” con una palabra clave o frases como “Hey, Siri” o “Alexa”.

Pero, “siempre hay un riesgo de activaci√≥n falsa”, subray√≥ Schaub.

“Tienen que confiar en el dispositivo y en la compa√Ī√≠a fabricante del dispositivo en que el micr√≥fono s√≥lo est√° procesando localmente hasta que se escuche la palabra que ordena la activaci√≥n.”, aclar√≥.

Ryan Calo, codirector del Laboratorio de políticas tecnológicas de la Universidad de Washington, expresó que, aunque los dispositivos no estén escuchando, sigue habiendo preocupación sobre el eventual acceso a conversaciones.

“Si los empleados est√°n escuchando cosas a las que no deber√≠an tener acceso, eso es una verdadera bandera roja de alerta, es una mala pr√°ctica”, indic√≥ Calo.

Tendencias Ahora