La intel·ligència artificial (IA) ha avançat moltíssim en els últims 70 anys. Dels primers sistemes d’estadística avançada que utilitzava l’INE per comptar ràpidament la població en un cens va passar a la indústria de l’entreteniment amb programes com AlphaGo o sistemes capaços de jugar partides d’escacs contra humans. I ara, l’arribada de la IA generativa ha posat sobre la taula la possibilitat de crear continguts de cap i de nou. Ara bé, és realment intel·ligent la IA? És lícit fer-la servir? Quins límits li hem de posar? En parlem amb Albert Sabater, professor Serra Húnter de sociologia i director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya. Una càtedra de la Universitat de Girona que analitza les conseqüències ètiques i socials de la implantació cada vegada més generalitzada de la IA.
A què us referiu quan parleu d’ètica en la intel·ligència artificial?
No ho hem d’entendre com una capacitat que té la IA per perdre decisions ètiques, no existeix una ètica de la IA, existeixen els usos ètics de la IA. És a dir, som nosaltres que utilitzem una sèrie d’eines, i l’ús que en fem pot ser més o menys transparent, més o menys responsable, més o menys just. L’ètica tracta les preocupacions morals que hi ha al voltant de fer les coses bé o malament: les conseqüències que pot tenir pel jo, però també les que pot tenir col·lectivament, i ara, amb una agenda de sostenibilitat, també les conseqüències pel medi ambient i l’entorn. En el camp de la IA, ens preocupen les conseqüències en termes de privacitat, d’autonomia, de justícia, de transparència, és a dir, de defensa de drets. Com a societat tenim l’obligació de garantir els drets de les persones, i amb el context de la IA s’hi afegeix una capa de complexitat: el risc que poden tenir les màquines. Un risc que s’ha de tipificar en termes de legislació.
Recentment, s’ha arribat a un acord polític per tirar endavant la primera llei europea d’intel·ligència artificial, què suposa aquest pas?
Aquest acord té uns fonaments molt ètics perquè es basa en una llarga trajectòria a la Unió Europea en què es tipifiquen disposicions legals basades en consideracions ètiques. Té dos elements claus que fan que s’avanci cap a un marc normatiu: la transparència i la responsabilitat. La transparència té a veure amb ser més transparents respecte a les eines que s’utilitzen per a crear més confiança, i perquè no tan sols se’n beneficiïn les empreses, sinó també el conjunt de persones que les utilitzen com a consumidors o usuaris finals. Pel que fa a la responsabilitat, no és exclusiva de les persones que desenvolupen sistemes d’IA, sinó també de l’administració, perquè és aquesta qui regula quin tipus d’IA es considera inacceptable, d’alt risc, de baix risc, etc. I alhora, els usuaris també tenim certa responsabilitat. Aquest acord deixa molt clar que cada vegada es demanarà més informació per saber quina és la responsabilitat humana que hi ha al darrere de la presa de decisions més automatitzada dels sistemes d’IA, i en qualsevol cas, la responsabilitat última i legal serà de les persones. Per tant, podem automatitzar moltes coses, però la responsabilitat que vagin bé és nostra, i això significa que la presa de decisions tant en el disseny com en la implementació és molt important i pot definir si aquestes tecnologies fan més bé que no pas mal.
En qualsevol cas, la responsabilitat última i legal en l’àmbit de la IA serà de les persones
Hi ha irresponsabilitats en la IA? Es treuen al mercat sistemes poc provats?
Ens trobem massa habitualment sistemes d’IA que han estat més provats en uns contextos que en uns altres, i quan surten del laboratori, alguna situació evitable no s’ha evitat perquè no s’ha fet prou recerca o no s’ha pensat prou bé com pot actuar aquest sistema en altres contextos. Generalment, la particularitat dels sistemes d’IA és que són molt ràpids i eficients, per tant, si una cosa la fan bé, la fan molt ràpid i molt bé, però si una cosa la fan malament, també la fan molt ràpid i molt malament. I d’això n’hem de ser conscients. Les consideracions ètiques ja existien per tal que estiguéssim amatents a través de recomanacions, però hem vist que no era suficient. Els sistemes d’IA que tenim en l’actualitat són molt complexos i el paper de les empreses que els desenvolupen ha canviat. Ara ja no són els Estats els qui porten la iniciativa en la nova revolució tecnològica, sinó les empreses que hi inverteixen, i hi ha un factor de secret industrial que impedeix el principi de transparència que comentàvem abans. I això és molt important també en termes de responsabilitat, perquè estem davant d’empreses que en molts casos no tenen seu a Catalunya, ni a Espanya, ni a Europa i, per tant, les seves coordenades d’acció són diferents de les que nosaltres podem controlar.
Un dels punts que va dificultar més aquest primer acord polític va ser l’ús de la identificació biomètrica, pel dilema d’haver de triar entre seguretat i privacitat. Què ha de tenir més pes en una decisió així?
Jo crec que aquí ens hem equivocat, perquè hem fet valer l’argument que la seguretat és més important, quan en realitat aquests sistemes no ens garanteixen cap seguretat. I en cap cas ens garanteixen un manteniment dels nostres drets en termes de vigilància a la via pública. Per exemple, el Regne Unit té una tradició de vigilància molt gran, i això no ha fet que reduís el crim ordinari ni el crim organitzat. En canvi, sí que ha tingut problemes importants de drets i llibertats a la via pública, perquè la vigilància condiciona moltíssim el comportament individual i social. A més, augmenta les desigualtats, ja que es posen càmeres allà on es pressuposa que hi haurà un problema, però potser el problema no és només allà. Fer prevaler l’argument de la seguretat respon a una dinàmica dels Estats d’adquirir tecnologies de vigilància per tal d’assegurar-se el control de la seguretat nacional. Amb el context de conflicte actual, els Estats creuen que necessiten totes les eines possibles per fer front a un atac terrorista o a situacions de crim organitzat i, per això, la legislació preveu que s’utilitzi la vigilància biomètrica de manera puntual. El problema és que no està garantit que sigui només així. La llei de protecció de dades actual ja en preveu la utilització als aeroports o a les institucions, però són espais concrets. Si ara es tipifica per traslladar-ho a la via pública en temps real i en perspectiva de ser utilitzada d’una manera indiscriminada, jo crec que és una mala notícia, perquè ja no es vigilarà només les persones que viatgen, sinó que es vigilarà a tothom. Tot i això, crec que aquest no serà el final, segurament hi haurà demandes, perquè la vigilància constant s’entén com una vulneració de drets.
Els sistemes de vigilància biomètrica no ens garanteixen cap seguretat, i en cap cas, un manteniment dels nostres drets
La privacitat però, en l’àmbit de la IA va molt més enllà dels sistemes de vigilància biomètrica.
Sí, en termes generals l’última generació de sistemes d’IA funcionava amb l’aprenentatge automàtic. És a dir, a partir de grans volums de dades s’entrenava un sistema perquè trobés coses semblants en altres conjunts i pogués fer recomanacions, per exemple. Això, abans de l’arribada de la IA generativa, suposava un problema a través de l’economia de vigilància, perquè com més dades té un sistema millor i aquestes dades es recullen a través de la nostra navegació a Internet i de les xarxes. Hi ha una sèrie de companyies que utilitzen tota la informació que deixem quan naveguem, i ho poden fer perquè nosaltres els hem dit que sí, sovint inconscientment. Això es va limitar quan va aparèixer la llei de protecció de dades. Tot i que moltes persones no ho saben, tu pots demanar que esborrin totes les teves dades i que no en recullin més. El problema és que ara mateix, amb l’arribada de la IA generativa, hem anat un graó més amunt. Hi ha empreses, que sense cap mena de consentiment han agafat tota la informació de tota mena de bases de dades d’Internet i les han utilitzat sense consentiment per entrenar els seus models i generar nous textos, imatges, sons, vídeos, etc. Entre els acadèmics es coneix com un dels robatoris més grans de la història.
Per tant, la IA generativa ha canviat el paradigma.
Hem passat d’un graó en què estàvem vigilats a un graó en què estem vigilats i a més treballem per aquestes companyies per tal de crear una nova història. Els sistemes d’IA generativa com OpenAI, Gemin AI o Mistral AI permeten fer coses perquè prèviament nosaltres hem fet coses, no poden operar sense tota aquesta informació. I ara nosaltres volem reescriure la nostra pròpia història, treballem per aquestes màquines. Des d’un punt de vista acadèmic és interessant, però des d’un punt de vista social hauria de ser preocupant, entre altres coses, perquè nosaltres paguem per aquest servei, després d’haver cedit tota la informació. Això canviarà, perquè comencen a haver-hi demandes de molts col·lectius de la població, i l’acord polític deixa molt clar que en termes de transparència s’hauran de publicar totes les dades que s’han utilitzat i la seva procedència. No podran fer servir les nostres dades sense que ens n’adonem. Però això va molt més enllà de la tecnologia. No estem davant d’un canvi únicament tecnològic, sinó també social. Aquestes eines afecten clarament com exercim els nostres drets i llibertats i també com s’estructura la nostra economia i el valor de les coses: la força de treball i la propietat intel·lectual. Afecten la riquesa i la seva distribució. Per tant, ja no ens hem de focalitzar només en les qüestions tècniques, sinó en si aquests sistemes, per exemple, només representen les persones blanques de classe mitjana. La IA s’ha convertit en un monstre polític. Les decisions que prenen grans companyies com Microsoft, Amazon o Appel afecten la nostra vida quotidiana i, per tant, hi ha d’haver una sèrie d’elements reguladors que garanteixin que ho fan de manera beneficiosa i no perjudicial.
Aleshores, és un perill l’auge de la IA?
No, de cap de les maneres. Sempre hi ha una possibilitat que les coses vagin molt malament. Per exemple, si no s’inverteix prou en la supervisió i els mecanismes de seguretat que fan que un avió no vagi en pilot automàtic tota l’estona o en els mecanismes de seguretat que hi ha per l’energia nuclear. El problema és quan deixa d’haver-hi supervisió humana, llavors hi poden haver accidents. I els accidents més greus no són de caràcter apocalíptic, són més quotidians. Per exemple, que en àmbits com la medicina o els serveis socials hi hagi biaixos i les eines estigmatitzin algunes poblacions. El perill és no tenir en compte aquestes consideracions ètiques que en molts casos ja formen part de la normativa.
Les decisions que prenen grans companyies com Microsoft, Amazon o Appel afecten la nostra vida quotidiana
La IA generativa també ha comportat problemes de veracitat, hi ha qui l’utilitza amb finalitats il·lícites o per crear continguts falsos.
Al llarg de la història hem vist que és molt llaminer poder fer veure que alguna cosa és real quan no ho és, i amb la IA passarà cada vegada més. Però aquí hi ha un element d’educació en l’àmbit públic. Cada vegada serà més important la cultura crítica. No hem d’anar accelerats i pensar que qualsevol cosa que tenim al davant ens l’hem de creure d’entrada. Segurament hi haurà més eines i cursos en l’àmbit de l’escola, l’institut i la universitat per aprendre a ser una mica més escèptics. En l’àmbit tècnic, l’acord polític proposa etiquetar tot el contingut fet amb IA. Això és més fàcil de dir que de fer, perquè potser la gent no ho fer per una qüestió de com valores aquest contingut, especialment si la IA el fa millor que les persones. Però crec que tant tècnicament com socialment, cada vegada hi haurà més consciència que no és acceptable fer passar els resultats de la IA pels resultats de les persones. Una cosa és que la tecnologia ens ajudi i augmenti les nostres possibilitats i una altra és que la tecnologia ho faci absolutament tot i nosaltres ens n’atribuïm l’autoria, això és un frau. En molts àmbits i professions s’haurà de determinar fins a quin punt és acceptable o no fer les coses amb IA.
Després d’aquest gran auge de la IA, quina tendència creus que seguirà ara aquesta tecnologia?
Ara estem en una fase d’enlluernament amb la IA generativa, però veurem fins a quin punt es consolida això el 2024. Individualment, sí que li veiem la utilitat, però pel que fa a les empreses i les administracions no queda tan clar per la falta de transparència. No saber quines dades estan utilitzant i si estan transgredint els drets d’autor fa que siguem una mica reticents a utilitzar-les per segons què, perquè presenten problemes, sobretot de privacitat. I segurament ara vindrà un hivern. Generalment, quan les coses van molt ràpidament i s’atribueixen a la IA unes capacitats que no té, s’entra en un desencís. Actualment, el debat constant que existeix i que mou més la inversió és la idea de la IA com una rèplica de la nostra intel·ligència, és a dir que les màquines tinguin una capacitat tan sofisticada com la nostra de fer les coses, que tinguin emocions, empatia, etc. I és molt probable que d’aquí a pocs anys, quan veiem que no hem arribat a aquesta fase de superintel·ligència el volum d’inversió en IA baixi. Llavors, no crec que es redefineixi la IA, però serà més important la idea de IA relativament limitada a la capacitat de fer coses determinades.
Podem arribar a un estadi en què les màquines tinguin superintel·ligència? És viable això?
Jo crec que no. De fet, encara tenim un debat de què és la intel·ligència, tant en l’àmbit filosòfic com en el científic, i també en el social, perquè la intel·ligència no és individual, sinó que és col·lectiva i, per tant, humana. Tenint en compte el que s’està fent actualment per entrenar els sistemes d’IA, no crec que pugui donar una superintel·ligència. No podem fer sistemes d’IA que siguin autònoms i intel·ligents com nosaltres únicament amb dades, perquè aquestes tenen uns límits. Una altra cosa seria que s’invertís en IA d’una altra manera, però això ja donaria per una altra entrevista.
Convidat de “Filosofía a l’Àgora”