Una nueva herramienta de inteligencia artificial de OpenAI que genera videos surrealistas a partir de texto genera preocupación

Abierto AI Revelé una nueva herramienta para hacerlo extremadamente realista. inteligencia artificial– Crear vídeos a partir de la entrada de texto, lo que genera preocupación al respecto. Amnistía Internacional Se está abusando de los sistemas para manipular a los votantes antes de las elecciones.

La herramienta de inteligencia artificial, llamada Sora, se puede utilizar para crear videos de hasta 60 segundos de duración con “escenas muy detalladas, movimientos de cámara complejos y múltiples personajes con emociones realistas”. ChatGPT Dijo la compañía en una publicación de blog el jueves.

OpenAI compartió varios videos de muestra creados con la herramienta AI, que parecían surrealistas.

Un ejemplo del vídeo muestra a dos personas, aparentemente una pareja, caminando por una calle cubierta de nieve de Tokio, de espaldas a la “cámara” mientras caminan.

El video hiperrealista fue generado por la herramienta de inteligencia artificial con un mensaje de texto detallado: «La hermosa ciudad nevada de Tokio está llena de acción. La cámara recorre la bulliciosa calle de la ciudad, siguiendo a varias personas que disfrutan del hermoso clima nevado y hacen compras. En los puestos cercanos, magníficos pétalos de sakura vuelan sobre el «El viento con los copos de nieve».

Otro vídeo producido con la herramienta y compartido por el presidente de OpenAI, Sam Altman, muestra mamuts lanudos hiperrealistas caminando por un paisaje nevado con montañas cubiertas de nieve en la distancia.

ChatGPT dice que el modelo de Sora entiende cómo «existen las cosas en el mundo físico» e «interpreta con precisión los accesorios y genera personajes convincentes que expresan emociones realistas».

READ  LG usa "Premium" con el altavoz Bluetooth XBOOM 360

El anuncio de la herramienta de inteligencia artificial generó preocupación entre muchos usuarios de las redes sociales, particularmente sobre la posible divulgación pública de Sora en un año electoral en los Estados Unidos.

Los expertos ya han planteado varias preocupaciones sobre el uso indebido de esta tecnología de inteligencia artificial, incluidos videos falsos y chatbots para difundir información política errónea antes de las elecciones.

«Mi mayor preocupación es cómo se puede utilizar este contenido para engañar, manipular y confundir al público en general», dice Rachel Toback, hacker ética y miembro del consejo asesor técnico de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) del gobierno de Estados Unidos. publicado en X.

Aunque OpenAI reconoció los riesgos asociados con el uso generalizado de la herramienta y dijo que estaba «tomando varias medidas de seguridad importantes antes de que Sora esté disponible en los productos OpenAI», la Sra. Toback dijo que «sigue preocupada».

Los adversarios podrían usar la herramienta de inteligencia artificial para crear un video que parezca mostrar un efecto secundario de una vacuna que no existe, dijo, citando ejemplos de cómo se podría hacer un mal uso de la herramienta.

En el contexto de las elecciones, dijo que una herramienta de este tipo podría usarse indebidamente para mostrar “filas inimaginablemente largas con mal tiempo” para convencer a la gente de que no vale la pena salir a votar.

OpenAI dijo que sus equipos estaban implementando reglas para limitar el uso potencialmente dañino de Sora, como mostrar violencia extrema, parecidos a celebridades o imágenes de odio.

READ  Los últimos AirPods de Apple vuelven a la venta por $ 150

«Trabajamos con miembros del equipo rojo (expertos en áreas como desinformación, contenido de odio y prejuicios) que prueban el modelo de manera adversa», dijo el creador de ChatGPT.

Pero Toback teme que sus oponentes encuentren formas de eludir las reglas.

«Tomemos el ejemplo anterior: pedirle a esta herramienta de inteligencia artificial 'un video de una fila muy larga de personas esperando bajo una fuerte lluvia afuera de un edificio' no es una violación de estas políticas; el peligro está en cómo se usa», explicó. .

“Si un oponente utiliza este vídeo generado por IA de una larga fila de personas bajo una fuerte lluvia para publicarlo en las redes sociales el día de las elecciones, ahora podría usarse para convencer a algunas personas de que se queden en casa y eviten las urnas y las filas”. El pirata explicó.

Pidió a OpenAI que discuta cómo asociarse con canales de redes sociales para reconocer y clasificar automáticamente videos generados por IA que se comparten en plataformas, además de desarrollar pautas para clasificar este contenido.

OpenAI no respondió de inmediato El independientePetición de comentario.

«Esta herramienta será la herramienta más poderosa para difundir información errónea jamás en Internet. «Ahora se puede elaborar una nueva narrativa falsa a escala, con mayor frecuencia; es como tener agentes de inteligencia artificial contribuyendo a la desinformación», dijo Gordon Crovitz, copresidente de NewsGuard, una empresa de seguimiento de información errónea. New York Times.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *