El uso de ChatGPT en el ámbito académico ha suscitado diferentes opiniones. Mientras que la Conferencia Internacional sobre Aprendizaje Automático (ICML, por su siglas en inglés) ha prohibido los papers con texto generado a partir de modelos de inteligencia artificial (IA), Springer Nature acaba de tomar el camino opuesto.
La prestigiosa editorial, que entre su publicaciones se encuentra la revista científica Nature, actualizó esta semana su guía de principios. En el documento señala que los autores podrán utilizar herramientas de IA para generar ideas o ayudar a escribir sus textos, siempre y cuando acredieten adecuadamente este tipo de colaboración en el trabajo publicado.
Herramienta de asistencia, no autora de una publicación
Springer Nature, sin embargo, no abraza completamente los modelos de lenguaje en trabajos académicos y establece pautas que intentan marcar ciertos límites. La editorial remarca que no permitirá que los usuarios acrediten como autora de un trabajo de investigación a una herramienta de IA.
“Esto se debe a que cualquier atribución de autoría conlleva responsabilidad por el trabajo, y las herramientas de IA no pueden asumir tal responsabilidad”, explica Springer Nature. Y, además, advierte que los enormes avances en la materia están haciendo que sea cada vez más difícil distinguir entre un trabajo producido por una inteligencia artificial o por una persona.
En este sentido, la empresa señala que reconocer los patrones que permiten detectar si un texto ha sido creado por una IA o un persona es muy complejo. “El trabajo sin procesar de ChatGPT es detectable en una inspección cuidadosa, particularmente cuando se trata de más de unos pocos párrafos y el tema se relaciona con el trabajo científico”, explica.
De hecho ya hay algunos detectores de ChatGPT. En Xataka hemos probado algunos y hemos llegado a la conclusión de que estas herramientas están lejos de ser perfectas. Obtienen mayor tasa de aciertos en textos largos en inglés, pero en español sigue habiendo cierto margen de mejora. Springer está trabajando en un detector propio.
La editorial también cuenta que percibe una “gran preocupación” en la comunidad por la posibilidad de que estudiantes o científicos puedan hacer pasar textos escritos por IA como propios. El riesgo alcanza, aseguran, incluso la elaboración de los artículos simples, porque se pueden producir resultados que no son confiables.
En otros ámbitos, ChatGPT y herramientas similares están dando de qué hablar. CNET empezó a utilizar asistentes de redacción basados en IA, pero el resultado fue desastrozo y terminó poniendo en pausa su experimento. BuzzFeed y Medium creen que pueden darles una oportunidad, así que acaban de empezar a utilizarlos.
La conocida plataforma de preguntas y respuestas Stack Overflow, por su parte, ha prohibido el bot conversacional de OpenAI, postura que comparte con escuelas de Nueva York. En cualquier caso, parece que los avances en este campo nos están llevando a las puertas de grandes cambios que llegarán de la mano de la IA.
Imágenes: Joshua Sortino + Nature (montaje)
En Xataka: Perplexity AI es todo lo que debe temer el buscador de Google: un "ChatGPT" conectado a internet
Ver todos los comentarios en https://www.xataka.com
VER 5 Comentarios