OpenAI explora el uso de marcas de agua en textos de ChatGPT para detectar trampas académicas

OpenAI ha confirmado que está investigando el uso de marcas de agua en textos generados por ChatGPT como medida para identificar trabajos académicos creados por la inteligencia artificial. Esta tecnología tiene como objetivo insertar una «firma» invisible en los textos, permitiendo a las instituciones educativas rastrear su origen y combatir el plagio.

La preocupación por el uso indebido de IA en la educación está en aumento, ya que cada vez más estudiantes recurren a herramientas como ChatGPT para generar ensayos y trabajos escolares. Las marcas de agua podrían ser una solución eficaz para garantizar la autenticidad de los trabajos académicos, permitiendo a las universidades y escuelas verificar si un texto fue producido por un humano o por un modelo de IA.

Además de las marcas de agua, OpenAI está explorando otras opciones, como clasificadores de texto y metadatos, para autenticar los contenidos generados por IA. Aunque esta tecnología de detección está avanzada, OpenAI ha sido cuidadosa con su implementación, preocupándose por las posibles repercusiones, como la estigmatización de los estudiantes que utilizan IA para mejorar sus habilidades de escritura de manera legítima.

En este contexto, es importante recordar que la humanización de textos creados por IA es un tema relevante. Hace poco publicamos un artículo donde compartimos herramientas para humanizar textos generados con IA, que puede ser útil para aquellos que desean mejorar la naturalidad de los textos producidos por inteligencia artificial.

OpenAI ha optado por priorizar la autenticación de contenidos audiovisuales antes de lanzar herramientas específicas para textos, reflejando su compromiso con un enfoque equilibrado y responsable en la implementación de nuevas tecnologías.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí