No podemos anticipar cómo se aprovechará la tecnología de manera indebida - MacBlaze

Breaking

En "MacBlaze" encontraras todo relacionado a tus videojuegos favoritos .

domingo, 18 de febrero de 2024

No podemos anticipar cómo se aprovechará la tecnología de manera indebida

Los desarrolladores de Sora discuten sobre la seguridad en relación con la inteligencia artificial de vídeo

Se ha producido un avance significativo en el campo de la Inteligencia Artificial. Recientemente, OpenAI, la organización responsable de desarrollar Chat GPT, ha lanzado al mundo su última innovación: Sora. A diferencia de los modelos de lenguaje anteriores, Sora es una IA generativa de video que permite a los usuarios generar metraje visual a partir de simples descripciones de lo que se necesita.


Los ejemplos de la herramienta ya están circulando en las redes sociales, y su nivel de realismo es tan sorprendente que puede llegar a ser perturbador. Entre los videos generados, podemos encontrar escenas de un perro disfrutando en la nieve, una pareja dando un paseo por las calles de Tokio e incluso material visual que pretende representar eventos históricos imposibles, como mamuts vagando por paisajes nevados o buscadores de oro en California durante la fiebre del oro del siglo XIX. Este avance tecnológico es extraordinario y nos lleva a una encrucijada, ya que resulta cada vez más difícil distinguir entre lo generado por la IA y la realidad a simple vista.



Por esa razón, OpenAI ha publicado un comunicado detallando sus hallazgos, sugerencias y planes para garantizar la seguridad con Sora. "Implementaremos una serie de medidas de seguridad fundamentales antes de que Sora sea integrado en los productos de OpenAI. Estamos colaborando con especialistas en campos como la desinformación, los contenidos que promueven el odio y los sesgos, quienes someterán al modelo a rigurosas pruebas adversas", explican.

También aseguran estar en proceso de desarrollar herramientas como un identificador que permitirá determinar si un vídeo ha sido generado con Sora, y tienen previsto incorporar metadatos C2PA (la identificación adjunta al vídeo) si el modelo se hace accesible al público. Además, destacan que aprovecharán las medidas de seguridad ya implementadas en DALL-E 3, su herramienta generativa de imágenes, como parte de su enfoque para garantizar la seguridad en el uso de Sora.

Antes de mostrar el resultado a la persona que proporciona la descripción, se llevará a cabo un proceso de moderación. Por ejemplo, una vez que forme parte de un producto de OpenAI, nuestro sistema de clasificación de texto verificará y descartará las descripciones que violen nuestras políticas de uso, como aquellas que soliciten contenido violento, sexual, imágenes que inciten al odio, retratos de personas famosas o la propiedad intelectual de terceros. También hemos implementado sólidos sistemas de clasificación de imágenes que se utilizan para analizar los fotogramas de cada vídeo generado, con el fin de garantizar que cumplan con nuestras políticas de uso antes de mostrarlos al usuario.

Finalmente, indican que se comunicarán con legisladores, educadores y artistas de todo el mundo para recibir sus inquietudes y explorar posibles aplicaciones positivas para esta nueva tecnología. Sin embargo, concluyen su comunicado con un mensaje claro: "Aunque hemos llevado a cabo numerosas investigaciones y pruebas, no podemos anticipar todos los usos beneficiosos que se harán de nuestra tecnología ni prever todos los posibles abusos que puedan surgir".

No hay comentarios.:

Publicar un comentario