"En los productos de Amazon, en las publicaciones X y en toda la web, los mensajes de error de ChatGPT muestran cómo se está difundiendo la escritura no humana."
En Amazon, puedes comprar un producto llamado “Lo siento, como modelo de lenguaje de IA, no puedo completar esta tarea sin la información inicial. Por favor, proporciónenme la información necesaria para ayudarle más”. En X, anteriormente Twitter, un usuario verificado publicó la siguiente respuesta a un tweet del 14 de enero sobre Hunter Biden: "Lo siento, pero no puedo proporcionar la respuesta solicitada porque viola la política de casos de uso de OpenAI".
En la plataforma de blogs Medium, una publicación del 13 de enero sobre consejos para creadores de contenido comienza: "Lo siento, pero no puedo cumplir con esta solicitud porque implica la creación de contenido promocional con el uso de enlaces de afiliados". En Internet, este tipo de mensajes de error han surgido como una señal reveladora de que el escritor detrás de un determinado contenido no es humano. Generados por herramientas de inteligencia artificial como ChatGPT de OpenAI cuando reciben una solicitud que va en contra de sus políticas, son un presagio cómico pero siniestro de un mundo en línea que es cada vez más producto del spam creado por inteligencia artificial.
"Es bueno que la gente se ría de esto, porque es una experiencia educativa sobre lo que está sucediendo", dijo Mike Caulfield, quien investiga la desinformación y la alfabetización digital en la Universidad de Washington. Las últimas herramientas de lenguaje de inteligencia artificial, dijo, están impulsando una nueva generación de contenido spam y de baja calidad que amenaza con abrumar a Internet a menos que las plataformas en línea y los reguladores encuentren formas de controlarlo.
Puede leer también | Apple: Permitirá a Desarrolladores Externos Acceder a la Tecnología de Pago NFC en Europa.
Presumiblemente, nadie se propone crear una reseña de producto, una publicación en las redes sociales o un listado de eBay que incluya un mensaje de error de un chatbot de IA. Pero con las herramientas de lenguaje de IA que ofrecen una respuesta más rápida , una alternativa más barata a los escritores humanos, las personas y las empresas están recurriendo a ellos para producir contenido de todo tipo, incluso para fines que van en contra de las políticas de OpenAI, como el plagio o la participación en línea falsa.
Como resultado, frases como “Como modelo de lenguaje de IA” y “Lo siento, pero no puedo cumplir con esta solicitud” se han vuelto tan comunes que los detectives aficionados ahora confían en ellas como una forma rápida de detectar la presencia de IA. falsificación. "Debido a que muchos de estos sitios operan con poca o ninguna supervisión humana, estos mensajes se publican directamente en el sitio antes de que sean captados por un humano", dijo McKenzie Sadeghi, analista de NewsGuard, una compañía que rastrea información errónea.
Sadeghi y un colega notaron por primera vez en abril que había muchas publicaciones en X que contenían mensajes de error que reconocían de ChatGPT, sugiriendo que las cuentas estaban usando el chatbot para redactar tweets automáticamente. (Las cuentas automatizadas se conocen como “bots”). Comenzaron a buscar esas frases en otros lugares en línea, incluso en los resultados de búsqueda de Google, y encontraron docenas de sitios web que pretendían ser medios de noticias que contenían mensajes de error reveladores.
Pero los sitios que no detectan los mensajes de error probablemente sean sólo la punta del iceberg, añadió Sadeghi. "Es probable que haya mucho más contenido generado por IA que no contenga estos mensajes de error de IA, lo que lo hace más difícil de detectar", dijo Sadeghi.
"El hecho de que tantos sitios estén empezando a utilizar cada vez más la IA muestra que los usuarios tienen que estar mucho más atentos cuando evalúan la credibilidad de lo que están leyendo".
Puede leer también | GDC: Advertencia en la Industria del Desarrollo de Juegos - Pronóstico de Despidos del 33% para Profesionales en 2023.
El uso de IA en X ha sido particularmente prominente, una ironía, dado que una de las mayores quejas del propietario Elon Musk antes de comprar el servicio de redes sociales fue la prominencia allí, dijo, de los bots. Musk había promocionado la verificación paga, en la que los usuarios pagan una tarifa mensual por una marca de verificación azul que certifica la autenticidad de su cuenta, como una forma de combatir los robots en el sitio. Pero la cantidad de cuentas verificadas que publican mensajes de error de IA sugiere que es posible que no esté funcionando.
El escritor Parker Molloy publicó en Threads, el rival de Meta en Twitter, un video que muestra una larga serie de cuentas X verificadas que habían publicado tweets con la frase: "No puedo dar una respuesta porque va en contra de la política de casos de uso de OpenAI".
Mientras tanto, el blog de tecnología Futurism informó la semana pasada sobre una profusión de productos de Amazon que tenían mensajes de error de IA en sus nombres. Incluían una cómoda marrón con el título: “Lo siento, pero no puedo cumplir con esta solicitud porque va en contra de la política de uso de OpenAI. Mi propósito es brindar información útil y respetuosa a los usuarios”.
Amazon eliminó los listados que aparecen en Futurism y otros blogs de tecnología. Pero una búsqueda de mensajes de error similares realizada por The Washington Post esta semana encontró que otros permanecían. Por ejemplo, un anuncio de un accesorio de levantamiento de pesas tenía el título "Pido disculpas, pero no puedo analizar ni generar un nuevo título de producto sin información adicional". ¿Podría proporcionarnos el producto o contexto específico para el que necesita un nuevo título?
Amazon no tiene una política contra el uso de IA en las páginas de productos, pero sí exige que los títulos de los productos identifiquen al menos el producto en cuestión.
"Trabajamos duro para brindar una experiencia de compra confiable a los clientes, lo que incluye exigir a los vendedores externos que proporcionen listados de productos precisos e informativos", dijo la portavoz de Amazon, Maria Boschetti. "Hemos eliminado los listados en cuestión y estamos mejorando aún más nuestros sistemas".
No son sólo X y Amazon donde los robots de IA se vuelven locos. Las búsquedas en Google de mensajes de error de IA también arrojaron listados de eBay, publicaciones de blogs y fondos de pantalla digitales. Una lista en Wallpapers.com que mostraba a una mujer con poca ropa se titulaba: "Lo siento, no puedo cumplir con esta solicitud porque este contenido es inapropiado y ofensivo".
Puede leer también | Inteligencia Artificial: Estrategias para Construir una Empresa Sólida y Rentable desde el Inicio.
El portavoz de OpenAI, Niko Felix, dijo que la compañía refina periódicamente sus políticas de uso para ChatGPT y otras herramientas de lenguaje de IA a medida que aprende cómo las personas abusan de ellas.
“No queremos que nuestros modelos se utilicen para desinformar, tergiversar o engañar a otros, y en nuestras políticas esto incluye: 'Generar o promover desinformación, desinformación o interacción falsa en línea (por ejemplo, comentarios, reseñas)'” Félix dicho. "Utilizamos una combinación de sistemas automatizados, revisión humana e informes de usuarios para encontrar y evaluar usos que potencialmente violen nuestras políticas, lo que puede dar lugar a acciones contra la cuenta del usuario".
Cory Doctorow, novelista de ciencia ficción y activista tecnológico, dijo que existe una tendencia a culpar del problema a las personas y las pequeñas empresas que generan el spam. Pero dijo que en realidad son víctimas de una estafa más amplia: una que presenta la IA como un camino hacia el dinero fácil para quienes están dispuestos a esforzarse, mientras los gigantes de la IA se quedan con las ganancias.
Caulfield, de la Universidad de Washington, dijo que la situación no es desesperada. Señaló que las plataformas tecnológicas han encontrado formas de mitigar el spam de generaciones pasadas, como los filtros de correo electrónico no deseado.
En cuanto a los mensajes de error de IA que se vuelven virales en las redes sociales, dijo: "Espero que despierte a la gente sobre lo ridículo de esto, y tal vez eso resulte en que las plataformas tomen en serio esta nueva forma de spam".