Los ejemplos son muchos. En las redes sociales y algún medio de comunicación se mezclaron vídeos reales de la descomunal nevada en la rusa península de Kamchatka con otros creados con IA y se perdió la capacidad de discernir cuál era cuál.
“Ya es muy difícil diferenciar el contenido generado por IA del elaborado por personas y cada vez lo será más”, advierte Ferran Lalueza, profesor de los Estudios de Ciencias de la Información de la Universitat Oberta de Catalunya (UOC). “Acabaremos asumiendo que, por defecto, todos los contenidos que consumimos pueden haber sido elaborados utilizando herramientas de IA, salvo aquellos provenientes de fuentes que hagan bandera de la autoría humana”, añade.
¿Máquina o humano?
La paradoja de la confianza
Tras la adopción masiva de estas herramientas, surge lo que los expertos llaman la brecha de confianza. Según un informe elaborado por la Melbourne Business School en colaboración con KPMG, aunque el 66% de la población utiliza la IA habitualmente, solo el 46% confía realmente en ella.
Y es que la IA tiene grandes ventajas, pero también carencias: “Falta de autenticidad, de responsabilidad firme, de compromiso ético, de confiabilidad, de trazabilidad y de empatía real”, enumera Lalueza. Por su parte, Alexandre López Borrull, también profesor de los Estudios de Ciencias de la Información de la UOC, destaca que la creación humana permite ofrecer diferentes capas de contexto y valores al relato de un mismo dato.
El factor humano, ¿un criterio de valor?
Ante estas deficiencias, los buscadores y las plataformas de IA están ajustando sus algoritmos para responder a criterios que valoren, sitúen y premien con mejor posicionamiento aquel contenido elaborado por humanos.
En este entorno, ¿podría convertirse la etiqueta made by a human en un criterio de valor positivo? Esta demanda ya existe: para el 76% de los adultos es extremadamente importante o muy importante poder distinguir si un texto, imagen o vídeo ha sido creado por una IA o una persona, según un estudio del Pew Research Center.
Ya existen iniciativas en este sentido en diferentes campos: en el sector editorial, destaca el sello Organic Literature, de Books by People, o, en el campo gráfico, la insignia Not By AI, y, en el ámbito de los videojuegos, está el sello No Gen AI.
Sin responsabilidad no hay autoría
Según López Borrull, el ámbito académico toma medidas desde dos vertientes. La primera es la transparencia. “Se exige detallar en qué fases exactas del proceso de investigación (traducción, revisión de estilo...) se ha utilizado la IA”. La segunda es la confidencialidad. “Las editoriales científicas están prohibiendo que se alimente a las IA generativas con manuscritos no definitivos o que se utilicen estas herramientas para redactar informes de revisión”, detalla.
Además, se ha zanjado el debate sobre si una IA puede firmar un paper. “El consenso académico es que no se puede ser autor si no se puede asumir la responsabilidad ética y jurídica de la investigación”, advierte López Borrull.
Lo humano como servicio ‘prémium’
Así pues, ¿serán estos sellos un distintivo de calidad, ética y conexión emocional? “Pienso que habrá dos grandes tendencias: una de plena aceptación de la IA como recurso válido para generar contenidos de forma rápida y económica, y otra que potenciará el contenido elaborado sin ningún tipo de apoyo de la IA como distintivo de calidad prémium”, afirma Lalueza.
Sin embargo, que esta etiqueta se convierta en un elemento de prestigio dependerá, según los expertos, de las preferencias de los usuarios. “No creo que sea determinante a la hora de consumir contenidos, sino una acción que dependerá más de gustos personales que de las herramientas usadas. Sobre todo, porque habrá mucha hibridación”, comenta Lalueza.
La transparencia
Aquí surge el problema: aunque hay interés en la transparencia de los contenidos, la capacidad real para detectarla es deficiente. El 53% de las personas encuestadas no está muy seguro o nada seguro de poder hacerlo, según el estudio del Pew Research Center. “Nos pasamos mucho tiempo intentando ver si el resultado final tiene indicios de IA, pero quizás deberíamos valorar más el proceso, si ha aportado valor o no”, puntualiza López Borrull.
Esta aversión provoca que, hoy, la transparencia no siempre esté bien vista; a veces parece un engaño o una falta de profesionalidad.
Quizás, con el tiempo, etiquetas como made by a human, asistido por una IA o creado por una IA modifiquen el valor que tienen en el imaginario social. “Decir que no se ha empleado la IA puede tener un valor a corto plazo, pero en el péndulo del tiempo no se entenderá como artesanal, sino como poco eficiente”, concluye López Borrull.