Todo el contenido en línea debe extraerse a menos que los editores opten por no hacerlo.

Google quiere que la IA pueda extraer todo el contenido digital a menos que los editores opten por no hacerlo.

El motor de búsqueda hizo esta sugerencia en una presentación al gobierno australiano, pidiendo a los legisladores que cambien las leyes de derechos de autor existentes.

¿Por qué nos importa? Si las leyes de derechos de autor cambian, la responsabilidad recaerá en las marcas y los editores para evitar que la IA extraiga su contenido. Si no lo hacen, corren el riesgo de que los competidores creen contenido muy similar y no puedan hacer nada al respecto, lo que puede causar un daño significativo a la campaña en términos de marca e identidad.

¿que pasa? Google escribió al gobierno australiano diciendo:

  • “Sistemas de derechos de autor que permiten el uso apropiado y justo del contenido protegido por derechos de autor para permitir que los modelos de IA se entrenen en Australia en una amplia variedad de datos, al tiempo que respaldan las opciones de exclusión aplicables para las entidades que prefieren no entrenar sus datos sobre el uso de sistemas de IA. ”

El motor de búsqueda, por supuesto, ha presentado casos similares al gobierno australiano antes, argumentando que la IA debería tener un uso justo en el contenido en línea con fines de capacitación. Sin embargo, esta es la primera vez que Google propone una cláusula de exclusión voluntaria como solución para abordar inquietudes anteriores.

¿Cómo funcionará? Sin embargo, Google aún no tiene un plan específico y el motor de búsqueda ha sugerido que quiere discutir sobre la configuración de un estándar web desarrollado por la comunidad que funcione de manera similar a robots.txt y que permita a los editores optar por no participar. motores de búsqueda rastreando su contenido.

READ  Los fanáticos de Sonic obtienen una bocanada de Evangelion del tráiler de New Horizons

Obtenga el boletín informativo diario del que dependen los especialistas en marketing.


¿Qué dijo Google? Danielle Roman, vicepresidenta de Trust for Google Search, abordó este tema en un comunicado de prensa el mes pasado. Ella dijo:

  • «Creemos que todos se benefician de un ecosistema de contenido vibrante. La clave de esto es que los editores web tengan opciones y control sobre su propio contenido, y oportunidades para obtener valor de la participación en el ecosistema web. Sin embargo, reconocemos que los controles para la web los editores han desarrollado Casos de uso de búsqueda e inteligencia preartificial actuales.
  • «A medida que surgen nuevas tecnologías, brindan oportunidades para que la comunidad web desarrolle estándares y protocolos que respalden el desarrollo futuro de la web. Uno de los estándares web desarrollados por la comunidad, archivo robots.txt, existe desde hace casi 30 años y ha demostrado ser una forma simple y transparente para que los editores web controlen cómo los motores de búsqueda rastrean su contenido. Creemos que es hora de que la web y las comunidades de IA exploren medios adicionales legibles por máquina para la selección y control de editores web para casos de uso emergentes de IA y búsqueda. «

Bucear profundo. google leerDesarrollar selección y control de contenidos web.en su totalidad para obtener más información.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *