El mito de la caverna 2.0: cuando la IA dibuja la sombra en la pared
Investigaciones recientes publicadas en Science advierten del peligro de los «enjambres de IA».
Por Raúl Antonio Capote.
El Mito de la Caverna es una explicación metafórica escrita por el filósofo griego Platón en el libro VII de La República, la usa para explicar cómo funciona el conocimiento humano, la educación y la difícil relación entre el mundo sensible (lo que percibimos) y el mundo inteligible (la verdad).
En los días que corren, la convergencia de la inteligencia artificial, el big data y la neurociencia han llevado la manipulación mediática a un nivel de desarrollo sin precedentes. El viejo paradigma de la persuasión basada en propuestas racionales ha muerto.
Ya no se trata de enviar el mismo mensaje a un grupo demográfico, sino de adaptar cada estímulo al estado de ánimo del individuo, mediante el uso de la microsegmentación adaptativa y la fabricación masiva de mensajes hipersensoriales.
Utilizan lo que se conoce como la «optimización de contenido basada en sentimientos»; los algoritmos analizan en tiempo real nuestras interacciones en redes para modificar los anuncios que consumimos. Crean una especie de «cámara de eco personalizada» en la que el individuo solo recibe la información que refuerza sus sesgos preexistentes.
Con el rápido desarrollo de las plataformas de redes sociales, el contenido generado por los usuarios –en los que comparten su vida diaria, opiniones y emociones– aporta una gran cantidad de información, así la aplicación de técnicas de análisis de sentimientos en el examen de datos de redes sociales, se ha convertido en una herramienta utilizada ampliamente para el estudio de la opinión pública.
Plataformas como TikTok, usan la titulada «ingeniería de la emoción viral», en la cual el algoritmo premia la emoción bruta por encima de la reflexión. Esta técnica ya no es solo de desinformación, sino de organización de narrativas simplistas, basadas, por ejemplo, en elementos como la «traición» o el «todo está perdido» que generan shock y son fácilmente replicables.
Se aprovechan efectos como el «coctel», o sea, hablar directamente a la experiencia personal del receptor o la «aversión a la pérdida» que no es otra cosa que presentar cualquier cambio como una pérdida catastrófica, para movilizar el miedo a favor de los manipuladores.
Investigaciones recientes publicadas en Science advierten del peligro de los «enjambres de IA». Para que se entienda mejor el riesgo, se trata de sistemas que despliegan miles de perfiles falsos que no se limitan a repetir un eslogan, sino que interactúan, se adaptan y evolucionan, para crear la ilusión de que existe un consenso social mayoritario en torno a una idea.
Se puede comprender entonces que el «consenso sintético» es mucho más peligroso que una noticia falsa aislada, o que el trabajo que podían realizar las granjas de bots antes del desarrollo de la IA.
De este modo se está consolidando un ecosistema dual, en el cual plataformas como Telegram juegan el papel de centros de coordinación y lanzamiento de narrativas falsas, mientras que TikTok se usa para darles alcance emocional y normalizarlas entre la población. Esta «coordinación encubierta» permite que un mensaje diseñado en un pequeño grupo inunde millones de pantallas en cuestión de horas.
Sin duda, el mayor peligro no es la mentira en sí misma, sino la destrucción de la confianza en los mecanismos que nos permiten distinguir la verdad de la falsedad. Cuando cualquier video puede ser falso y cualquier tendencia puede ser un invento de un enjambre de bots: ¿en qué y a quién creemos?
Puede que parezca ciencia ficción, pero ya se habla de «propaganda neural» ¿De qué se trata? El universo de George Orwell quedaría relegado al campo de los cuentos infantiles.
La «propaganda neural», plantea la posibilidad de inyectar mensajes directamente en el córtex visual durante el sueño, mediante interfaces cerebro-computadora. Los resultados de esta «técnica» llevan la manipulación al terreno de la inhumanidad y la locura.
Quieren construir un mundo vaciado de realidad, en el que la humanidad viviría subyugada por una élite dueña de los miedos irracionales del cerebro humano, capaz de inducir cualquier cosa que deseen.
Para nosotros, hoy la pared de la cueva son las pantallas de nuestros móviles y televisores, las sombras no las proyectan estatuas, sino algoritmos, deepfakes, enjambres de ia y técnicas de neuromarketing.
Los cautivos en la caverna somos nosotros cuando consumimos contenido sin cuestionar su origen, atrapados en cámaras de eco que refuerzan nuestras ideas sin mostrarnos la realidad exterior. Ese «consenso sintético» al que nos referimos es la versión moderna de las sombras: una realidad fabricada que parece verdad porque todos los demás prisioneros (o sus avatares digitales) también la aplauden.
El mito nos advierte de que liberarse de la manipulación es un proceso doloroso, que requiere esfuerzo, estudio y dudar de lo que vemos y que, además, quien lo intenta corre el riesgo de ser ridiculizado o «eliminado» por una sociedad que puede llegar a preferir la comodidad de sus sombras conocidas, a la incomodidad de una verdad compleja.
Fuentes: UBC Science, LMS Political Campaign, IDW Informationsdienst Wissenschaft.
Tomado de Granma.

