Mira Moratti, CTO de OpenAI, se sentó recientemente con The Wall Street Journal para revelar detalles interesantes sobre el próximo generador de texto a video de Sora.
La entrevista cubre una amplia gama de temas, desde el tipo de contenido que producirá el motor de IA hasta las medidas de seguridad que se están tomando. La lucha contra la desinformación es un punto conflictivo para la empresa. Moratti dice que Sora tendrá múltiples barreras de seguridad para garantizar que no se haga un mal uso de la tecnología. Ella dice que el equipo no se sentiría cómodo publicando algo que «podría afectar las elecciones globales». De conformidad con el artículoSora seguirá las mismas políticas rápidas que Dall-E, lo que significa que se negará a crear «imágenes de figuras públicas» como el presidente de los Estados Unidos.
También se agregarán marcas de agua. El logotipo transparente de OpenAI se puede encontrar en la esquina inferior derecha para indicar que se trata de imágenes de IA. Moratti añade que también pueden considerar la fuente del contenido como otro indicador. Esto utiliza metadatos para proporcionar información sobre los activos de medios digitales. Todo esto está muy bien, pero puede que no sea suficiente. El año pasado, un grupo de investigadores logró descifrar “protecciones de marcas de agua de imágenes existentes”, incluidas las que pertenecen a OpenAI. Ojalá se les ocurra algo más difícil.
Características generativas
Las cosas se ponen interesantes cuando empiezan a hablar sobre el futuro de Sora. Primero, los desarrolladores tienen planes de «eventualmente» agregar sonido a los videos para hacerlos más realistas. Las herramientas de edición también están en el itinerario, lo que brinda a los creadores en línea una forma de corregir los numerosos errores de la IA.
A pesar del progreso de Sora, comete muchos errores. Un ejemplo notable de la pieza gira en torno a un mensaje de vídeo que le pide al motor que cree un vídeo en el que un robot roba la cámara de una mujer. En cambio, el clip muestra a la mujer transformándose parcialmente en un robot. Moratti admite que hay margen de mejora y afirma que la IA es “muy buena en materia de continuidad; [but] «No es perfecto».
La desnudez no está descartada. Moratti dice que OpenAI está trabajando con «artistas… para descubrir» qué tipo de contenido desnudo se permitirá. Parece que al equipo le parecería bien permitir la desnudez «artística» y al mismo tiempo prohibir cosas como los deepfakes no consensuales. Naturalmente, OpenAI quiere evitar ser el centro de una posible controversia, aunque quiere que su producto sea visto como una plataforma que fomenta la creatividad.
Pruebas continuas
Cuando se le preguntó sobre los datos utilizados para entrenar a Sora, Moratti se mostró un poco evasivo.
Comenzó afirmando que no sabía qué se utilizaba para enseñar IA, aparte de si estaban «disponibles públicamente o si eran datos bajo licencia». Además, Moratti no estaba seguro de si los vídeos de YouTube, Facebook o Instagram formaban parte del entrenamiento. Pero más tarde admitió que efectivamente se utilizaron medios de Shutterstock. Ambas empresas si no lo sabías tienes una sociedad Lo que podría explicar por qué Moratti quiso confirmarlo como fuente.
Moratti dice que Sora será liberado «definitivamente» a finales de año. No especificó una fecha concreta, aunque podría suceder en los próximos meses. Actualmente, los desarrolladores están probando la integridad del motor en busca de «vulnerabilidades, sesgos y otros resultados dañinos».
Si estás pensando en probar Sora algún día, te sugerimos aprender a utilizar el software de edición. Recuerde que comete muchos errores y es posible que siga cometiéndolos tras el lanzamiento. Para obtener recomendaciones, consulte el mejor software de edición de video de 2024 de TechRadar.
También te puede interesar
«Estudiante amistoso. Jugador certificado. Evangelista de las redes sociales. Fanático de Internet. Se cae mucho. Futuro ídolo adolescente».