No más trampas: OpenAI desarrolla detector de textos generados por ChatGPT

OpenAI ha desarrollado una herramienta que podría potencialmente detectar a los estudiantes que hacen trampa al pedirle a ChatGPT que escriba sus tareas. Sin embargo, según The Wall Street Journal, la empresa está debatiendo si realmente la lanzará.

¿Se podría eludir el detector? Uso de IA en tareas universitarias

En una declaración proporcionada a TechCrunch, un portavoz de OpenAI confirmó que la empresa está investigando el método de marca de agua en el texto descrito en la historia del WSJ. Sin embargo, también mencionó que están adoptando un “enfoque deliberado” debido a “las complejidades involucradas y su probable impacto en el ecosistema más amplio más allá de OpenAI”. “El método de marca de agua en el texto que estamos desarrollando es prometedor desde el punto de vista técnico, pero tiene riesgos importantes que estamos evaluando mientras investigamos alternativas, incluyendo la susceptibilidad a la elusión por parte de actores malintencionados y el potencial de impactar desproporcionadamente a grupos como hablantes no nativos de inglés,” dijo el vocero de OpenAI. Este enfoque sería diferente de la mayoría de los intentos anteriores para detectar texto generado por IA, que han sido en gran medida ineficaces. Incluso OpenAI cerró su detector de texto de IA el año pasado debido a su “bajo índice de precisión.” Con la marca de agua en el texto, OpenAI se enfocaría únicamente en detectar escritura de ChatGPT, no de los modelos de otras empresas. Lo haría realizando pequeños cambios en cómo ChatGPT selecciona las palabras, creando esencialmente una marca de agua invisible en la escritura que podría ser detectada posteriormente por una herramienta separada. Por su parte, OpenAI también actualizó una publicación de blog de mayo sobre su investigación en la detección de contenido generado por IA. La actualización menciona que la marca de agua en el texto ha demostrado ser “altamente precisa e incluso efectiva contra la manipulación localizada, como parafrasear,” pero ha demostrado ser “menos robusta contra la manipulación global; como usar sistemas de traducción, reescribir con otro modelo generativo, o pedirle al modelo que inserte un carácter especial entre cada palabra y luego eliminar ese carácter.” Como resultado, OpenAI escribe que este método es “trivial de eludir por actores malintencionados.” La actualización de OpenAI también hace eco del punto del portavoz sobre los hablantes no nativos de inglés, escribiendo que la marca de agua en el texto podría “estigmatizar el uso de la IA como una herramienta útil para la escritura para hablantes no nativos de inglés.” Una encuesta realizada por BestColleges a 1,000 estudiantes universitarios mostró que el 56% de los estudiantes han utilizado IA en tareas o exámenes. Otro 41% de los estudiantes dicen que no lo han hecho, y el 4% prefiere no responder. La encuesta también reveló que poco más de la mitad de los estudiantes (54%) consideran que el uso de herramientas de IA en el trabajo universitario cuenta como trampa o plagio. Al mismo tiempo, algunos profesores están asignando a los estudiantes tareas específicas que requieren el uso de estas herramientas. Casi 8 de cada 10 estudiantes (79%) dicen que han tenido un instructor que les habló sobre el uso y la ética de la IA en el aula.

]]>

Leave a Reply

Your email address will not be published. Required fields are marked *