Crític Cerca
Opinió
Josep Lluís Martí

Josep Lluís Martí

Professor de Filosofia del Dret a la Universitat Pompeu Fabra

Intel·ligència artificial i democràcia

El desenvolupament de les tecnologies està provocant una pèrdua enorme de privacitat i de llibertat personal, i la dominació potencial per part d’empreses privades i de governs d’estats

23/12/2020 | 06:00

Foto: SUJINS – PIXABAY

Des dels inicis de la tecnologia digital, molts dels seus impulsors han tingut clara la idea que la tecnologia havia de posar-se al servei de la humanitat. L’any 1962, Douglas Engelbart, un d’aquests visionaris que treballaven a l’Stanford Research Institute (SRI) de Menlo Park i que va inventar el ratolí (el mouse), escrivia un Informe amb un títol força eloqüent, Augmenting Human Intellect: a Conceptual Framework, un document fundacional que imaginava la tecnologia computacional al servei de l’objectiu d’augmentar la intel·ligència humana. Ell va qualificar el document com “el debut públic d’un somni”. Els anys seixanta del segle passat van ser certament una època de somnis. Però em temo que, malauradament, alguns d’aquests somnis estan mutant i podrien convertir-se en veritables malsons.

Permeteu-me explicar quins són els quatre malsons principals que jo identifico en l’impacte que la intel·ligència artificial (IA) pot tenir sobre la democràcia, deixant de banda altres riscos que la IA pugui tenir en altres àmbits, així com altres perills que la democràcia afronta per altres causes.

Començo aclarint que, quan parlo aquí d’IA, em refereixo a un conglomerat de tecnologies –que van des d’algoritmes d’anàlisi de Big Data i Machine Learning fins al processament de llenguatge natural–, que permeten que determinats artefactes tinguin la capacitat de realitzar tasques cognitives pròpies, i fins fa poc exclusives, dels éssers humans, sovint fins i tot de manera molt més efectiva que nosaltres. Les aplicacions existents actualment, moltes de les quals plenament integrades en la nostra vida quotidiana, van des del reconeixement facial o de veu en persones amb usos molt diversos fins al reconeixement visual d’objectes en fotos o vídeos. Des dels assistents virtuals fins als nostres dispositius mòbils, com Siri o Cortana, fins als assistents domèstics, com Alexa o Bixby. Des dels algoritmes de diagnòstic mèdic fins als predictors de decisions judicials. Des del motor de recomanacions d’Amazon fins als assistents de compres o els algoritmes de publicitat selectiva o hipersegmentada. Des dels sistemes de processament de llenguatge natural que permeten, entre altres usos, la traducció automàtica fins als sistemes de simulació i anàlisi de sistemes dinàmics. Des de la composició musical artificial com les d’AIVA o Ampermusic fins a l’escriptura de la primera novel·la escrita per IA (titulada 1 The Road), o des dels cotxes autotripulats de Tesla o Waymo (Google) fins a les armes autodirigides, i un llarg etcètera.

La transformació econòmica, social, jurídica, política i cultural que produiran les màquines serà profunda

És cada cop més difícil trobar una tasca o un tipus d’activitat humana que les màquines no puguin fer, i la transformació econòmica, social, jurídica, política i cultural que estan començant a produir serà profunda. Un dels impactes esperats a mitjà termini és que, segons algunes estimacions, entre un 40% i un 60% de les tasques realitzades actualment per humans seran substituïdes per processos automatitzats. Això no implica necessàriament la destrucció de llocs de treball, ja que potser emergiran noves ocupacions en tasques de supervisió, control i comandament. En tot cas, que aquesta transformació profunda acabi tenint un impacte positiu o negatiu, en part, depèn de nosaltres i de les decisions que prenguem en aquests moments inicials del desenvolupament de la tecnologia. Decisions que són crucials per evitar els quatre malsons que passo a explicar.

La primera preocupació democràtica és que el desenvolupament de les tecnologies en general, i de la IA en particular, està provocant una pèrdua enorme de privacitat i de llibertat personal, i la dominació potencial per part d’empreses privades i de governs d’estats. D’una banda, sense ni tan sols ser-ne conscients, hem cedit una part important del control sobre la informació de les nostres vides a un conjunt d’empreses tecnològiques, entre les quals es troben les big five (Google, Amazon, Apple, Microsoft i Facebook), algunes de les quals tenen un model de negoci que depèn de les nostres dades. Nosaltres –les nostres preferències, els nostres comportaments, els nostres desitjos– som les mercaderies que elles venen amb un gran profit econòmic.

De l’altra, tal com va posar en relleu l’escàndol destapat per Edward Snowden l’any 2013 sobre l’espionatge de l’NSA dels Estats Units i dels GCHQ al Regne Unit a milions de persones de tot el món, el poder que tenen els governs (no solament els nostres propis) per espiar-nos massivament és enorme. És cert que governs i empreses han estat sempre capaços d’espiar-nos. El que els permet la IA és fer que aquest espionatge sigui massiu, s’estengui a tothom i a pràcticament tots els ordres de les nostres vides. Encara més: els permet utilitzar aquesta gran quantitat d’informació per identificar les maneres d’induir la gent a fer allò que determinades persones vulguin que fem, és a dir, per manipular-nos.

Els governs i les empreses han estat sempre capaços d’espiar-nos, però la IA permet que aquest espionatge sigui massiu

Quan Facebook l’any 2014 va anunciar que havia realitzat un experiment amb 689.000 dels seus usuaris (sense el seu consentiment), i que havia demostrat que té la capacitat de manipular les emocions d’aquests usuaris simplement modificant els seus respectius news feeds, molta gent es va escandalitzar. La pregunta és: per què Facebook anunciava orgullosament que havia fet una cosa tan poc ètica com aquesta? La resposta és clara: es tractava senzillament d’una campanya de publicitat gegant i gratuïta per a la companyia, que anunciava els seus serveis.

Així va quedar demostrat l’any 2017 amb l’esclat de l’escàndol de Cambridge Analytica, quan es va saber que aquesta empresa, utilitzant les dades de milions d’usuaris de Facebook, havia ajudat l’UKIP en la campanya a favor del Brexit i Donald Trump en les eleccions presidencials del 2016. Ho va fer utilitzant algoritmes capaços d’identificar perfils molt precisos de votants potencials de cada un dels candidats, d’analitzar les seves personalitats i preferències, i de trobar el tipus de missatges que podien mobilitzar o desmobilitzar aquests ciutadans sense que ells ni tan sols advertissin que les seves accions i decisions estaven sent manipulades. Aquest cas va obrir els ulls a molts: la IA, mal utilitzada, pot suposar la fi de les eleccions lliures i de l’ideal democràtic d’autogovern, i en aquest sentit és una amenaça directa per a la legitimitat de les nostres democràcies.

L’única manera de prevenir efectivament aquests dos primers malsons –la pèrdua de privacitat i de llibertat individual i el risc directe de manipulació de les preferències polítiques i del sistema electoral– seria introduir regulacions i formes de control estrictes. Però aquí emergeix una tercera preocupació. La recerca més avançada en IA actualment al món està concentrada en menys d’una dotzena d’actors (principalment, en els governs de la Xina i de Rússia, i unes quantes empreses privades). Això implica una concentració de poder a escala global que no té precedents en la història. I ens fa adonar-nos d’un greu problema de desajustament històric d’escala política. Mentre les democràcies constitucionals funcionen, allà on ho fan, a escala estatal, la concentració de poder que trobem avui al món posseeix una escala global inevitable i irreversible. Els estats ja no poden protegir els seus ciutadans de la dominació potencial per part de les empreses privades gegants i d’altres estats poderosos. Han perdut el control. Tal com va manifestar el físic Stephen Hawking en una de les darreres entrevistes concedides abans de morir, si no establim un govern mundial amb capacitat regulatòria clara, la IA podria acabar destruint la humanitat.

I arribem al quart malson. La democràcia només és possible en la mesura en què la ciutadania mantingui el poder últim, i, en conseqüència, tingui la capacitat efectiva de controlar allò que fan les institucions de govern, i aquestes, de regular els actors privats per impedir la dominació. Aquest control només pot ser genuí si els ciutadans disposen d’informació sobre allò que fan les institucions, així com de les eines epistèmiques necessàries per jutjar l’acció d’aquestes institucions. El problema és que la nostra societat i la política democràtica que pretén governar-la, tal com ens recorda freqüentment Daniel Innerarity, són cada cop més complexes. I les noves tecnologies, i entre aquestes la IA de manera molt particular, que ens haurien d’ajudar a afrontar aquesta complexitat de manera més efectiva són, en canvi, cada cop més opaques.

Els algoritmes de la IA són una mena de caixa negra que impossibilita el control extern

Els algoritmes amb els quals es desenvolupa la IA són, de manera creixent, una mena de caixa negra que impossibilita el control extern, sovint fins i tot el control dels mateixos desenvolupadors originals d’aquests algoritmes. Per tant, un escenari de futur en el qual la IA pogués tenir un rol central en la presa de decisions –des de la prestació de serveis públics, com l’educació o la salut, fins a l’administració de justícia o la mateixa presa de decisions tant legislatives com administratives– té el risc de convertir-se en un malson de caixa negra, una forma de governança hipercomplexa no susceptible de ser controlada per la ciutadania, i, per tant, no democràtica.

Aquests quatre malsons colossals ens poden dur al desànim. Però el pessimisme no ha permès mai a la humanitat realitzar cap de les seves conquestes socials i polítiques. Així que mirem endavant amb optimisme i parlem tots plegats de com podem fer front a aquests grans reptes. Em penso que la resposta és òbvia: cal retornar al somni d’Engelbart. Cal posar la IA al servei de la intel·ligència humana individual i col·lectiva; en definitiva, de la democràcia, i no a la inversa.

Des dels inicis de la democràcia, a l’Atenes clàssica, hem estat conscients del potencial enorme de la intel·ligència col·lectiva (IC), el que Aristòtil va anomenar “la saviesa de la multitud”. La recerca actual sobre com la intel·ligència col·lectiva ben canalitzada pot enfortir les nostres democràcies, fer-les més legítimes i més eficients, i com pot resoldre millor els nostres problemes, està vivint en aquests moments una explosió. Són cada cop més els autors que, des de diverses disciplines, estan contribuint al desenvolupament d’aquest camp. Del que podem estar ben segurs és que la tecnologia en general, i la IA en particular, han de formar part de la solució. Ha de ser, això sí, una IA posada genuïnament al servei d’enfortir la intel·ligència humana i que no s’escapi del nostre control democràtic. Rememorant la vella proclama que va donar origen a la democràcia moderna –“No més impostos sense representació!”–, tots hauríem de treballar units globalment sota l’eslògan de “No IA sense IC!”.

La versió completa d’aquest article ha sortit publicada en el dossier central de la revista ‘Eines’, de la Fundació Josep Irla, d’aquest hivern (número 39)

Aquest article només és possible gràcies a la col·laboració de les persones subscriptores

En plena crisi, continuem fent un periodisme rigorós i que aposta per la profunditat. Et necessitem més que mai.

Subscriu-t'hi ara

Amb la quota solidària, rebreu el llibre Carta a un republicano español, de Jordi Serrano, i el pròxim Dossier CRÍTIC

Torna a dalt
Aquest lloc web utilitza cookies pròpies i de tercers d'anàlisi per recopilar informació amb la finalitat de millorar els nostres serveis, així com per a l'anàlisi de la seva navegació. Pot acceptar totes les cookies prement el botó “Accepto” o configurar-les o rebutjar-ne l'ús fent clic a “Configuració de Cookies”. L'usuari té la possibilitat de configurar el seu navegador per tal que, si així ho desitja, impedexi que siguin instal·lades en el seu disc dur, encara que haurà de tenir en compte que aquesta acció podrà ocasionar dificultats de navegació de la pàgina web.
Accepto Configuració de cookies