Hackean reconocimiento de voz con herramientas de distorsión Siliconrepublic 29-Sep-2015
La seguridad por activación de voz ya no es un medio seguro, un equipo de investigadores ha logrado engañar al software de seguridad con una herramienta para distorsión de voz de bajo presupuesto.
Los intentos de hackeo contra grandes organizaciones son una amenaza constante, muchas de ellas han respondido con el uso de medidas a prueba de fallos humanos, más específicamente la seguridad de reconocimiento de voz, que sólo permitirá el acceso a un lugar o a archivos con una contraseña dicha por la voz de un ser humano.
Pero ahora, de acuerdo con la Universidad de Alabama, un equipo de investigadores ha revelado que la tecnología no es a prueba de tontos y que, de hecho, puede ser violada con una herramienta relativamente accesible y un poco de ingenio por parte del hacker.
Con una herramienta de síntesis de voz automatizada, un hacker potencial sólo tiene que reunir un pequeño número de muestras de voz de la persona, después, con técnicas de distorsión de voz, puede convertir la voz del atacante en la de su víctima.
El equipo de investigación probó su teoría en un sistema biométrico de voz que analiza los patrones únicos vocales del orador para identificarlos, con muestras de la voz del titular de la cuenta, fue posible obtener acceso sin restricciones.
El segundo experimento que se probó con la herramienta de voz morphing fue imitar la voz de dos celebridades, Oprah Winfrey y Morgan Freeman; se encontró que el atacante podría cambiar fácilmente su voz a la de cualquier celebridad.
“Por ejemplo, el atacante podría enviar las muestras de voz a Internet y dejar mensajes de voz falsos para los contactos de la víctima, lo que podría crear falsas pruebas de audio en la corte e incluso hacerse pasar por la víctima en las conversaciones telefónicas en tiempo real con alguien que la víctima conoce” dijo Nitesh Saxena, director de la Security and Privacy In Emerging computing and networking Systems (SPIES). “Las posibilidades son infinitas.”
Durante su experimento se encontró que la tasa promedio para rechazar voces falsas por el software de seguridad de voz era menos de 10 a 20% para la mayoría de las víctimas, mientras que para las pruebas en humanos se encontró un rechazo sobre 50% de las veces.
Ver información original al respecto en Fuente:
http://www.seguridad.unam.mx/noticia/?noti=2512
NOTA: Los interesados en información sobre contrato de soporte Asistencia Tecnica de SATINFO y/o licencia de uso/actualizaciones de sus utilidades, contacten con info@satinfo.es
__________
Este blog no se hace responsable de las opiniones y comentarios de los textos en los que se cita la Fuente, ofreciendo su contenido solo para facilitar el acceso a la información del mismo.
Puedes seguir cualquier respuesta a esta entrada mediante el canal RSS 2.0. Los comentarios y los pings están cerrados.
Los comentarios están cerrados.