- Investigadores indicaron que la función permite ayudar a identificar los textos creados con IA y limitar su uso indebido
Un equipo científico de Google DeepMind desarrolló una herramienta capaz de añadir marcas de agua a textos generados por grandes modelos lingüísticos, con el objetivo de mejorar su capacidad para identificar y rastrear contenidos creados con inteligencia artificial (IA).
Los grandes modelos lingüísticos (LLM, por sus siglas en inglés) son un tipo de IA muy utilizados que pueden generar texto para chatbots, ayuda a la escritura y otros fines. Sin embargo, puede resultar difícil identificar y atribuir el contenido producido por esta IA a una fuente concreta, lo que pone en entredicho la fiabilidad de la información.
En imágenes, videos o audios es relativamente sencillo insertar marcas de agua, pero en los textos esto supone un reto: cualquier alteración en las palabras puede afectar el significado y la calidad del contenido.
En este sentido, Google ha propuesto marcas de agua como solución, pero no se han implantado a gran escala.
Algoritmo para aplicar marcas de agua
En un artículo publicado en la revista Nature, los investigadores Sumanth Dathathri y Pushmeet Kohli, de Google DeepMind, describieron una estrategia que utiliza un novedoso algoritmo de muestreo para aplicar marcas de agua al texto generado por IA, conocida como SynthID-Text.
Los investigadores explicaron que la herramienta utiliza este algoritmo “para sesgar sutilmente la elección de palabras del LLM, insertando una firma que pueda ser reconocida por el software de detección asociado”.
La detectabilidad de estas marcas de agua se evaluó con varios modelos disponibles públicamente y SynthID-Text mostró una eficacia mejorada en comparación con los enfoques existentes, asegura un resumen de la revista.
Según los científicos, el uso de SynthID-Text tiene además un impacto insignificante en la potencia de cálculo necesaria para ejecutar el LLM, lo que reduce la barrera para su implementación.
Limitar el uso indebido de los textos creados con IA
Los autores señalaron que los modelos de lenguaje de gran tamaño han permitido la generación de texto sintético de alta calidad, a menudo indistinguible del contenido escrito por humanos, a una escala que puede afectar notablemente la naturaleza del ecosistema de información.
La marca de agua puede ayudar a identificar el texto sintético y limitar su uso indebido accidental o deliberado. “Aquí describimos SynthID-Text, una estrategia de marca de agua que preserva la calidad del texto y permite una alta precisión de detección”, indicaron.
La adopción de la herramienta es un desafío
Para Pablo Haya, del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid, el artículo presenta “una solución técnicamente robusta” para la identificación de texto generado por IA a través de marcas de agua.
En un comentario a Science Media Centre España, una plataforma de recursos científicos para periodistas, Haya detalla que la marca de agua consiste en alterar el algoritmo de generación de palabras de manera que sigan un patrón estadístico rastreable sin modificar el significado.
Actualmente, los sistemas para detectar si un documento es generado por IA tienen bajos índices de acierto, por lo que tecnologías que faciliten la identificación de la autoría resultan necesarias, opina Haya, que no participa en el estudio.
Sin embargo, añadió que su adopción generalizada es un desafío, principalmente porque este tipo de marcas de agua es vulnerable a manipulaciones posteriores, como modificaciones en el texto o el uso de técnicas de parafraseo, lo que reduce la efectividad de la marca para detectarla.
Con información de EFE