El robot sospechoso e impositivo

Por Sergio Ferrari

Omnipresente en la vida cotidiana… y mucho más

El ser humano integra a diario más y más productos que son el resultado de una Inteligencia Artificial (IA) capaz de imitar y potenciar el saber intelectual humano. Y que también amenaza desbancar millones de puestos de trabajo.

La primera semana de marzo el grupo de prensa Axel Springer, el más grande de Alemania, y editor de los periódicos Bild y Die Welt, anticipó una reducción significativa de sus empleados. Según el gigante alemán, dicha reestructuración que se hará hasta finales del año en curso está motivada por los últimos avances en la tecnología de la información-comunicación (https://www.rfi.fr/fr/europe/20230304-le-groupe-allemand-axel-springer-va-supprimer-des-postes-au-profit-de-l-intelligence-artificielle). Mathias Döpfner, director del grupo, envió una carta a su personal en la cual afirma que «La inteligencia artificial revolucionará el periodismo y la industria de los medios de comunicación” en la medida que substituya diversas actividades propias de la profesión.

Presencia cotidiana

Un buscador temático en Internet; la cortadora de césped automática sin cable; el calculador de distancias o el de tipos de cambio; múltiples traductores en línea; asistentes audio; vehículos sin conductor o robots cirujanos… Todos ellos avances tecnológicos que se van imponiendo aceleradamente gracias a la Inteligencia Artificial. Resultado de la combinación de algoritmos –secuencias de pasos lógicos estructurados en programas– que permite crear máquinas o instrumentos que presentan las mismas capacidades, o mejores, que las del ser humano.

Inteligencia Artificial, o términos intercambiables como “algoritmo” o “datos”, aparecen ya en los medios de prensa, estudios científicos, ensayos sociológico-filosóficos, documentos sindicales e incluso en las charlas de café, cuando compartimos aplicaciones e imágenes con nuestras amistades. Y también están presentes en las reflexiones y los debates sindicales, cuando se analiza el mundo del trabajo y el impacto directo que tienen las nuevas tecnologías en ciertos sectores. Por ejemplo, por citar solo algunos, el de las comunicaciones, la industria gráfica, el personal de ventas –reemplazado en los países industrializados por máquinas de autopago–, el bancario, el financiero, la logística en general y los centros de atención a clientes.

La Inteligencia Artificial traduce conceptos casi mágicos. A veces, incluso, se emplean sin entenderse el significado profundo de los mismos. Como lo señala Adrien Tallent, graduado en Filosofía Política y Ética en la Universidad de la Sorbona, Francia, en ciertos casos se los equipara con “instrumentos infalibles y  perfectamente racionales cuya ayuda puede ser inestimable para delegar ciertas tareas o incluso responsabilidades”.

Potencialidad y amenazas

Sin embargo, subraya Tallent en un reciente artículo publicado en The Conversation (https://theconversation.com/exploitation-des-donnees-un-changement-de-contrat-social-a-bas-bruit-199038), “la recopilación masiva de datos y el uso generalizado de algoritmos también supone una amenaza para la sociedad y la democracia”. Y explica que, a “cambio de un servicio (casi siempre gratuito), los usuarios delegan consciente o inconsciente-mente parte de su poder de decisión y la posibilidad de influir en sus elecciones y opiniones”.

El filósofo francés recuerda que los sistemas de Inteligencia Artificial se construyen para manejar enormes cantidades de datos y que su propósito es tomar las decisiones más informadas y objetivas posibles. Sin embargo, señala, este despliegue lógico a gran escala responde a opciones políticas y a la promoción de lo que ciertos intelectuales denominan «racionalidad algorítmica».

Tallent también explica que las sociedades occidentales son herederas de la revolución científica y filosófica del siglo XVII y que se construyeron en torno de las nociones de libertad y progreso, respetando cierta armonía entre emancipación humana y desarrollo técnico. Y se interroga: ¿Qué podría ser más racional que la gestión de diversos sectores y actividades quede en manos de la inteligencia artificial?

El problema que surge con esta concepción es que ve al ser humano como falible frente a una Inteligencia Artificial considerada infalible porque se basa en datos u objetos matemáticos. Según esa visión, cualquier decisión sería irrefutable porque se basaría en argumentos estadísticos sin tener en cuenta que la recuperación de datos y su explotación implica matices y contradicciones.

Tallent advierte que los gigantes digitales (las grandes empresas multinacionales del sector) conocen nuestras preferencias, nuestras opiniones y nuestros deseos. Además, que los contenidos afines a nuestras ideas ocupan un lugar preponderante y faltan opiniones alternativas, lo que facilita y aumenta la difusión de noticias falsas (fake news), las cuales disponen de un mayor potencial de difusión. Como resultado, cada vez compartimos menos verdades y experiencias comunes, necesarias para que funcione la democracia.

Inteligentes e invasivos

Al analizar nuestros datos personales con el propósito de predecir nuestro comportamiento, el sistema dominante se está convirtiendo en un “capitalismo de vigilancia», en palabras de la conocida socióloga norteamericana Shoshana Zuboff, a quien Tallent cita en su artículo. Según Zuboff, para estas empresas, los individuos ya no son clientes, sino productos para los anunciantes o proveedores de datos, y esos datos permiten desposeer a los potenciales consumidores de su propia voluntad.

Tallent subraya que “el hecho de que estemos expuestos a esa publicidad dirigida demuestra las dudas que tenemos sobre nuestros propios deseos. Ya no sabemos, realmente, si hemos deseado el objeto adquirido o lo compramos porque nos lo mostraron antes. Nuestro deseo está automatizado”.

“Acostumbrados al progreso técnico”, continúa, “los individuos se han habituado a un entorno en el que la búsqueda de comodidad, rapidez y entretenimiento permite la generalización y perpetuación de sistemas técnicos invasivos en detrimento de ciertas libertades fundamentales (derecho a la intimidad, al anonimato, a la independencia de pensamiento, etc.), que son las garantías de nuestras sociedades democráticas”.

Al facilitar nuestros datos e informaciones, concluye Tallent, transferimos parte de nuestro libre albedrío y la capacidad de opinar por nuestra propia cuenta. De esta manera limitamos seriamente nuestra capacidad de influir en los procesos electorales, es decir, en el ejercicio mismo de la democracia.

El caso de Cambridge Analytica es tal vez el que mejor ejemplifica esta realidad. La firma inglesa recopiló y usó, sin consentimiento, los datos de más de 80 millones de usuarios de Facebook. Su accionar demuestra la capacidad de manipulación política que tuvieron las redes sociales en elecciones tan decisivas como las presidenciales estadounidenses de 2016 o el referéndum británico sobre el Brexit para definir la continuidad o la salida británica de la Unión Europea.

Cambridge Analytica también promovió la figura de Mauricio Macri en su campaña electoral en 2015 en Argentina (https://www.analytica.com.do/publicaciones/blog/la-buena-nota-de-macri-en-los-mercados/). Diversos medios de prensa de muy variados horizontes ideológicos, incluyendo algunos conservadores como La Nación, informaron en su momento sobre este servicio de la empresa británica al ex presidente argentino (https://www.lanacion.com.ar/politica/cambridge-analytica-hizo-trabajos-pro-antes-campana-nid2289827/).

Control democrático de la Inteligencia Artificial

SYNDICOM, el sindicato suizo de la comunicación, comenzó hace años el estudio de la temática relacionada con la Inteligencia Artificial y este tema sigue siendo una prioridad cotidiana de su trabajo gremial. En 2020 avanzó una serie de principios rectores para conceptualizar y promover el uso responsable de la inteligencia artificial.

Su tesis fundamental consiste en que “en un mundo digital en el que la inteligencia artificial gana terreno, cada individuo debe poder decidir libre y autónomamente dónde y en qué medida se apoya en la tecnología, y en qué casos actúa por cuenta propia, sin ayuda de la misma”. El sindicato está convencido “de que el gran potencial de la inteligencia artificial sólo podrá hacerse realidad si se adapta a nuestras necesidades y si es aceptado por la sociedad”.

Sin embargo, advierte, esto debe hacerse dentro de un marco libremente elegido y que sea ética y legalmente correcto. Y enfatiza: “los seres humanos deben seguir conservando su soberanía”. Es decir, los individuos deben ubicarse y prevalecer sobre las máquinas y sus productos.

SYNDICOM considera esencial incluir las cuestiones éticas en el desarrollo y el uso de la IA y subraya que, en el contexto de los derechos humanos, la participación democrática, el Estado de Derecho y la redistribución social, la inteligencia artificial debe tener como único objetivo estar al servicio de las personas y de su libertad, y no al servicio de acumulación, propio de las empresas.

Palanca para redistribuir el ingreso


En 2020 SYNDICOM aprobó nueve Principios Rectores, es decir, marcos conceptuales de la Inteligencia Artificial para el Futuro Humano. Entre ellos: el ejercicio de autonomía y control; el respeto de los derechos humanos y los derechos fundamentales; la responsabilidad ética y social; asegurar transparencia; ejercitar la responsabilidad; aceptar las relaciones de coparticipación social y la codecisión de los trabajadores, y reconocer una transformación digital justa y duradera (https://syndicom.ch/fr/themes/dossier/intelligenceartificielleia/resolution/).

La transformación digital justa constituye un punto esencial de los postulados del sindicato y va directo al tema de la redistribución del ingreso. Para SYNDICOM, dicha transformación debe mejorar la situación del mayor número posible de personas mediante la redistribución y los esfuerzos por lograr la igualdad de género. “Las ganancias de productividad que pueda aportar el uso de la IA deben reinvertirse de forma sostenible en beneficio de la gente”. Y advierte que “en la era de la cuarta revolución industrial, el sistema económico ha cambiado de rostro. Pretende funcionar con el menor número posible de trabajadora-es y alejarse de las relaciones contractuales garantizadas por las convenciones colectivas”. Esta visión no constituye “una innovación tecnológica, sino una ruptura histórica y social. Las razones no hay que buscarlas en la automatización digital, sino en el sistema económico dominante”, concluye esta organización gremial helvética.

En cuanto al eventual uso indebido de las bases de datos, elemento esencial de la IA, la propuesta de SYNDICOM consiste en impulsar paraguas protectores debido a que la big data y la IA también pueden diseñarse para perjudicar a las personas. Estas inmensas cantidades de información, los datos, la IA y los sistemas inteligentes constituyen ingeniosas herramientas en manos de una multitud de actores, muchos de los cuales son políticamente poderosos, así como delincuentes. Esto debe tenerse en cuenta a la hora de diseñar y regular la IA. Sin embargo, el daño potencial “no es una característica del desarrollo tecnológico, sino un resultado de su uso. Por eso es tan importante que los diferentes actores del Estado regulen el espacio digital para evitar que otros se apoderen de él y lo manipulen, incluso fuera de las fronteras nacionales.

Temática alucinante y reflexiones en pañales, que muchas veces parecen ir detrás del propio ritmo robótico de las nuevas tecnologías de la información, tan invasoras como beligerantes e imponentes. ¿Quién controla a quién en esta compleja relación entre robots y seres humanos? Tal vez, como lo afirma el filósofo suizo Hans Widmer (https://www.youtube.com/watch?v=EhYpE1PtULo), el desafío esencial sea desarrollar, trabajar, conceptualizar y pensar a fondo la relación entre la Inteligencia Artificial y la ética, para evitar caer en el riesgo posible de “un individuo que quede bajo la tutela de la IA”.

Tomado de Rebelión

Autor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: