Las enciclopedias fueron durante siglos absoluto dominio de un reducido grupo de eruditos y expertos. Solo ellos podían condensar el conocimiento humano en aquellos tomos impresos, pero con internet y la Wikipedia todo cambió. De repente era posible acceder a una enciclopedia abierta a la que cualquiera podía contribuir. Wikipedia se ha convertido en un excelente recurso informativo -no exenta de problemas, eso sí-, pero ahora una amenaza la asola: se llama ChatGPT.
La comunidad, dividida. Como indican en Vice, una reciente reunión de la comunidad de Wikipedia trató sobre el potencial uso de modelos de IA generativa para ayudar al trabajo de los editores y gestores de Wikipedia. El riesgo de que esos textos generados por modelos como ChatGPT contengan errores -o incluso invenciones y "alucinaciones"- es elevado, y eso requiere una supervisión humana que podría acabar dando más trabajo que evitándolo.
ChatGPT puede ser útil... vigilándolo. Amy Bruckman, profesora y autora de un libro sobre Wikipedia, explicaba cómo "el riesgo para Wikipedia es que la gente acabe bajando la calidad al publicar cosas que no han sido verificadas. No creo que haya nada malo en usar [ChatGPT] para un primer borrador, pero cada punto debe ser verificado".
Poniendo límites. Los responsables de Wikipedia han creado un documento en el que se habla de los grandes modelos de lenguaje (LLM, por Large Language Model) como ChatGPT y su potencial aplicación al trabajo de los editores. Las directrices básicas son no publicar contenido obtenido al preguntar a una LLM, aunque sí puedan usarse esos modelos como "consejeros" en la redacción. Si se usan esas herramientas, es necesario dejarlo claro en el resumen de la edición del artículo afectado/editado.
Pero la IA podría hacer mejor aún a la Wikipedia. Aunque hay oponentes al uso de este tipo de tecnología, portavoces de Wikimedia Foundation indicaban en ese artículo de Vice cómo la IA representa una oportunidad para ayudar a que el trabajo de los voluntarios de Wikipedia y de proyectos de Wikimedia crezcan. Uno de esos portavoces indicaba que "La IA puede funcionar mejor como un complemento del trabajo que realizan los humanos en nuestro proyecto".
Meta ya hizo su propuesta. De hecho ha habido otro proyecto relacionado con la IA que quiso ayudar a hacer mejor la Wikipedia. Lo anunció el verano pasado Meta, que desarrolló un sistema de inteligencia artificial llamado Sphere. Tras entrenarlo con 4 millones de fragmentos de texto de Wikipedia y un gran conjunto de datos, el objetivo era poder ser usada para verificar las fuentes o referencias de los artículos de Wikipedia.
Citar y verificar, primordial. Parece por tanto que en la Wikipedia no se oponen ni prohíben el uso de modelos como ChatGPT para ayudar a mejorar la plataforma, pero las suspicacias existen y los riesgos son conocidos. Como decía Bruckman, "el contenido será tan fiable como el número de personas que lo hayan verificado con sólidas prácticas de citación [a fuentes originales y válidas]".
En Xataka | El "gran" rediseño de Wikipedia: todo lo que cambia en la enciclopedia en su primera reforma en décadas
Ver todos los comentarios en https://www.xataka.com
VER 11 Comentarios