Amazon le está enseñando a Alexa cómo engañar a su abuela | edad de información

Abuela, ¿eres tú? Foto: Shutterstock

Los científicos de Amazon AI están enseñando a su asistente de voz Alexa a hablar usando la voz de cualquier ser humano, incluso aquellos que han muerto, después de haber sido entrenados con solo unos pocos clips de audio cortos.

La nueva función se mostró por primera vez en el último evento de Amazon Show: marzo de 2022, lo que permite a un niño Pregúntale a Alexa‘¿Puede mi abuela terminar de leerme?’ mago de Oz? «

El asistente de voz luego tiene que sintetizar la voz de la mujer fallecida y leer el texto en voz alta mientras el niño continúa el libro.

La tecnología aún está en desarrollo, pero Rohit Prasad, vicepresidente senior de Amazon y científico jefe de Alexa AI, la configuró como una forma de agregar personalidad y calidez a las voces públicas de los asistentes de voz de IA de hoy.

“Lo que más me sorprendió de Alexa es la relación de compañerismo que disfrutamos”, explicó Prasad, y señaló que “en este rol de compañerismo, los rasgos humanos de empatía e influencia son clave para generar confianza”.

“Estos rasgos se han vuelto aún más importantes en estos tiempos de pandemia en curso, cuando muchos de nosotros hemos perdido a alguien que amamos”, continuó.

«Si bien la IA no puede eliminar este dolor de pérdida, ciertamente puede hacer que sus recuerdos perduren».

Construir la tecnología requería deshacer el problema de los motores tradicionales de texto a voz (TTS) que permitían a los asistentes de voz hablar sin problemas usando voces entrenadas durante muchas horas de grabaciones por actores de voz de estudio.

READ  Sony ofrece los juegos de PlayStation más populares para dispositivos móviles

En cambio, explicó Prasad, los ingenieros trataron el problema como una tarea de conversación de voz y analizaron prosodia Target Voice, los aspectos no lingüísticos de la forma en que hablamos, para alimentar un filtro de voz personalizado que permite a Alexa hablar con la voz del objetivo en lugar de la suya.

“Esto requirió una intervención, ya que tuvimos que aprender a producir sonido de alta calidad utilizando menos de un minuto de audio en lugar de horas de audio de estudio”, dijo Prasad.

Tu voz es su contraseña

Amazon puede estar posicionando la tecnología de simulación de voz como un favorito sentimental que hace que los asistentes impulsados ​​por IA se parezcan más a los humanos, pero la tecnología seguramente encontrará el favor a corto plazo entre los delincuentes que ya han intentado usar falsificaciones profundas de voz para cometer fraudes importantes.

En 2019, por ejemplo, un CEO británico sido engañado Para enviar más de $ 330,000 (US $ 243,000) a un estafador que usó tecnología de inteligencia artificial para imitar la voz del director ejecutivo de su empresa matriz alemana.

Es probable que estas tácticas se vuelvan más comunes con el tiempo a medida que la mejor tecnología de simulación de audio llegue a la corriente principal.

Usando las técnicas descritas por Prasad, los actores maliciosos pueden crear una voz sintética persuasiva para un director ejecutivo, un político o una celebridad simplemente entrenando a Alexa para parte de un discurso pronunciado en una reunión general anual, una función comercial u otro evento.

Luego, el dispositivo se puede manipular para hablar todo tipo de datos ocultos, que se pueden encadenar en cadena para facilitar el fraude en un nivel completamente nuevo.

READ  La Universidad de Monash pregunta "¿Está en riesgo la próxima generación?"

La tecnología que mejora constantemente significa que tales problemas no están fuera de su alcance, con empresas como aflorítmico Emparejar la ‘reproducción de sonido artificial’ con una falsificación óptica cada vez más convincente para producir humanos artificiales que puedan, como en el caso del sintetizador ‘Digital Dom’ Lanzado el año pasado Simulación de personas reales con una precisión asombrosa.

Esto podría tener implicaciones en el metaverso, donde las voces falsas eventualmente pueden llevarse a nuevos entornos para permitir que los estafadores pretendan ser casi cualquier persona.

Finalmente, el investigador de deepfakes y ganador de BT Young Scientist & Technologist de este año, Greg Tarr Decir Cybercrime Magazine, el audio profundo y el video se están volviendo tan buenos que incluso los residentes en línea simplemente deberán permanecer escépticos sobre cualquier cosa que escuchen que no puedan verificar en el mundo real.

“Como estas tecnologías están cada vez más disponibles para el público y no se necesita experiencia técnica para convencer a personas falsas”, dijo Tarr.

«Llegará al punto en que no podremos detectar falsificaciones profundas, y eso es algo a lo que tendremos que acostumbrarnos».

Dijo: «En este punto, necesitaremos madurar como sociedad en lugar de como tecnología, porque hay un límite para eso; necesitamos ser menos dependientes de la información que consumimos de fuentes poco confiables».

Deja una respuesta

Tu dirección de correo electrónico no será publicada.