Qui té por de la intel·ligència artificial? (2/2)

Fa uns mesos vaig publicar en aquest blog una primera entrada sobre la intel·ligència artificial. Ara compleixo el que vaig anunciar-hi: publicar una segona entrada per aportar consideracions, necessàriament limitades, documents i enllaços sobre les oportunitats i, especialment, les amenaces reals o imaginades derivades de la presència creixent de sistemes d’intel·ligència artificial en àmbits públics i privats.

Actualitzada el 10/01/2026.

Los coches autónomos seguían circulando sin conductor ni viajeros tras el apocalipsis.
                 Text en una vinyeta (El Roto, 25/06/2024)
Actualitzat el 03/07/2024

L’objectiu d’aquella primera entrada era contribuir a clarificar què és i què no és la intel·ligència artificial, la IA.

Tot i que des d’aleshores només han passat uns pocs mesos, el tema ha perdut presència en els mitjans [01], a mesura que ha anat amainant l’enrenou que va tenir lloc arran de la presentació, el mes de novembre de 2022, de la primera aplicació de la IA generativa (IAG), ChatGPT, que a hores d’ara ja té un nombre apreciable de competidores. Però la IA segueix sent molt interessant per les seves moltes repercussions presents i futures en l’economia, l’ocupació i les feines, la cultura i les nostres vides quotidianes.

1 Què és i què no és la IA: un breu memoràndum

IA és un terme paraigües, que té ja moltes dècades de vida (els primers ordinadors eren denominats sovint “cervells electrònics”) i que aixopluga moltes aplicacions diferents, algunes de les quals es consideren part de la IA perquè així s’ha convingut, mentre que n’hi ha d’altres, de vegades més sofisticades, que normalment no són etiquetades com a membres de la família IA (com ara, els cercadors de rutes i, el que no deixa de ser particularment sorprenent, els denominats motors de cerca, com ara Google). Hi ha aplicacions de la IA que són d’ús habitual en àmbits diversos (diagnòstic per la imatge, control de qualitat mitjançant visió artificial…) o que fins i tot fem servir potser sense adonar-nos-en (traducció, detecció de correu brossa, escriptura predictiva en el mòbil…). Ni unes ni altres susciten grans preocupacions, tot i que no està exclosa la possibilitat que cometin errors d’envergadura diversa (de tant en tant en alguna edició de diaris que es publiquen en dues llengües podem trobar-ne d’obvis, com ara la conversió del nom de l’expresident de la Generalitat de Catalunya Quim Torra en Quim Tuesta).

Però la novetat de ChatGPT i les aplicacions competidores és que són generatives, és a dir, tenen la capacitat de generar textos, sons, imatges o vídeos (segons aplicacions i versions) a partir d’indicacions més o menys precises. I aquestes aplicacions poden fer això perquè tenen accés a immenses bases de dades i perquè han estat entrenades per fer ús de la informació que aquestes contenen. Posar a punt una aplicació d’IA generativa (IAG) requereix per tant, una gran inversió en maquinari i programari i fer-la funcionar implica despeses importants, perquè requereix personal, energia i aigua per a la refrigeració del maquinari.

És la IAG la modalitat d’IA que ha suscitat o revifat els debats sobre els perills de la IA, inclòs el de desaparició o esclavització de la humanitat, dominada per una intel·ligència superior, la IA, creada, per a més inri, per la mateixa espècie humana.

Més enllà d’aquestes cabòries, no hi ha dubte que la IAG és un instrument de poder i que té un paper important en la disputa per l’hegemonia entre els Estats Units i la Xina, tant per l’impacte en les armes de la guerra convencional (les denominades, en la terminologia militar operacions cinètiques) com en la guerra cognitiva.

Les aplicacions d’IAG poden ser útils per a diverses activitats i alhora tenen riscos associats. Però la novetat de la IAG no ha de fer perdre de vista els riscos de modalitats més consolidades de la IA, com ara el reconeixement facial. En molts casos la IAG no implica riscs nous, sinó que n’intensifica de ja existents.

Per tant, una discussió a fons sobre què hem de témer i què no en relació amb la IA requereix una extensió més pròpia d’un llibre que d’una entrada en un blog, fins i tot deixant de banda les implicacions ètiques i jurídiques (per exemple, de qui és la responsabilitat dels efectes d’un consell equivocat d’una IAG, de la usuària, de l’empresa propietària de l’aplicació, de l’entitat que va penjar a la xarxa la informació de què s’ha derivat el consell de la IAG…?. Per això, i per les meves pròpies limitacions, em centraré només en alguns aspectes d’aquestes qüestions.

2 La nostra espècie serà substituïda o esclavitzada per la IA?

La idea que la ciència (o, específicament, un científic més  o menys enfollit) genera monstres que poden acabar destruint els seus creadors té una llarga tradició en la literatura i el cinema, des de Frankenstein o el Prometeu modern fins a Parc Juràssic, passant, per exemple, per L’estrany cas del Dr. Jekyll i Mr. Hyde, les diverses versions de La mosca o, singularment, el film 2001: una odissea de l’espai (molt recordada darrerament, arran de l’eclosió de la IAG) en què, a bord de la nau espacial Discovery, l’ordinador HAL 9000, dotat amb moltes de les capacitats associades habitualment a la IA (reconeixement de veu, reconeixement facial, processament de llenguatge, lectura de llavis, pilotatge de naus espacials, bon nivell com a jugador d’escacs…), a partir de la interpretació que fa del comportament dels tripulants humans decideix eliminar-los (tanmateix, l’únic supervivent, Dave Bowman, aconsegueix desactivar HAL, que entona la cançó Daisy Bell mentre s’extingeix).

Certament, el mal ús de la ciència i la pseudociència poden causar catàstrofes. Però gràcies a la ciència, l’esperança de vida, per exemple, ha anat augmentat sostingudament.

És la IA un monstre que ens destruirà? Ho són ChatGPT i les aplicacions que hi competeixen? Hi ha qui personifica la IA que, com he recordat, és només un terme que empara una diversitat de tècniques i d’aplicacions. I darrerament també es personifiquen aplicacions de més o menys envergadura, considerades a discreció com a pertanyents a l’àmbit de la IA i es parla “d’una IA” (un exemple imaginari, però versemblant: “la start up  Smart Counting ha creat una intel·ligència artificial que avalua el nombre d’assistents a manifestacions i espera facturar…”).

ChatGPT i moltes altres aplicacions de la IA fan coses millor i més ràpidament que les persones. Abans, la ciència i la tècnica havien creat artefactes que superen determinades capacitats de les persones. Els vehicles motoritzats corren més que nosaltres, els avions volen, les calculadores de butxaca, els mòbils, els ordinadors… fan en temps brevíssims tasques per a les quals ens caldrien dies o anys. Però això no implica que ens hagin de substituir o d’esclavitzar, més enllà que ens generin dependència en alguns casos.

Sí, ChatGPT i similars venen a ser unes apps extraordinàriament sofisticades i que requereixen una gran quantitat de recursos de càlcul i altres. El màgic d’Oz era una persona normal, que feia anar una màquina  amagada darrera d’una cortina. I darrera les aplicacions de la IAG hi ha les persones que les han creades i que les mantenen i comercialitzen [02].

Per tant, correspondria a aquestes persones la responsabilitat de qualsevol mala acció derivada de la IAG. El que una aplicació sigui o no perillosa depèn, en primer lloc, però no exclusivament, que ho siguin o no aquestes persones.

I, ara per ara, que aquestes aplicacions funcionin o deixin de funcionar depèn també de persones. Recordem que HAL 9000 era capaç de fer molt mal, però que, finalment, Bowman el desactivà.

En tot cas, el debat sobre si la IA desplaçarà o no l’espècie humana és una manera no innocent de fer passar l’estona a la gent i que, com ha advertit López de Mántaras [03],  només serveix com a cortina de fum per desviar l’atenció dels perills que ara mateix presenta l’ús de la IA o de sistemes en què intervé. Harari posa “una intel·ligència artificial sense control” al costat del canvi climàtic, considerats una i altre com a “amenaces existencials”, entre els temes que haurien de tractar i resoldre els dirigents mundials després d’establir la pau a Ucraïna [04].

Però, com s’ha dit [05], fa més por l’estupidesa natural que la intel·ligència artificial. O, també, la maldat natural que la intel·ligència artificial.

Ara bé, la visió apocalíptica abstracta de la IA té una contrapartida que és el discurs sobre la IA com a panacea, poció màgica o bàlsam de Ferabràs  que guarirà tots els mals relacionats amb el clima, la biodiversitat, l’educació, la sanitat, la seguretat i la gestió de les cadenes de subministrament i permetrà assolir victòries bèl·liques sense sacrifici de vides humanes (de la nostra gent).

Davant d’aquestes apreciacions contradictòries, hi ha qui ha optat per no inclinar-se ni cap a un costat ni cap a l’altre. Basilio Baltasar ha recollit una mostra d’aquestes actituds[06], de la qual extrec els dos exemples següents:

  • Nick Bostrom director del Future of the Humanity Institute, de la Universitat d’Oxford: La IA posa en perill “la mateixa existència de la humanitat”. Ara bé, “si aconseguim controlar-la i sobrevivim a la transició a l’era de la superintel·ligència de les màquines, aleshores pot convertir-se en una eina per conjurar altres perills”. “La IA podria ser tan difícil de controlar que fracassaríem per més que ho intentéssim o podria, en canvi, resultar relativament fàcil de guiar”.
  • Verónica Bolón Canedo, investigadora de la U. d’A Coruña: “La IA és part del problema de la contaminació a causa del seu alt consum energètic i emissions de CO2; tanmateix, també és la solució dels problemes derivats del canvi climàtic” (una mostra del que de vegades es denomina tecnoideologia: la creença que la tecnologia pot resoldre  els problemes socials). 

Als quals afegeixo el següent (un fragment de l’entrada publicada en el blog Universídad el 08/01/2026):

  • D’una banda, el seu ús [el de la IAG], pot enfortir la competència més valuosa de l’educació universitària, el pensament crític. De l’altra, pot ser el seu pitjor enemic.

Tampoc no ajuden gaire reflexions com que “La nova IA està construint  una arquitectura en la qual la informació comença a fluir des del futur cap al present, i no des del passat cap al present, com ha sigut fins ara”, la qual cosa suscita la pregunta de “¿Com serà una societat oracular i no arxivística?” [07].

Sembla, doncs, que per saber  què ens amenaça i què ens ofereix noves possibilitats hem d’analitzar les coses des de punts de vista que toquin més de peus a terra.

3 El que ja no són amenaces, sinó fets

He parlat més amunt d’aspectes positius de la IA, d’aplicacions que ens faciliten tasques diverses que ens serien molt difícils de fer, o fins i tot impossibles, sense la IA Però aquí em refereixo a conseqüències negatives per a sectors socials majoritaris (el que és negatiu per a unes persones és positiu per a unes altres i fins i tot molt positiu si les beneficiades són poques).

Per descomptat, la digitalització i les aplicacions que fa possible, incloses les de la IA, tenen incidència en els llocs de treball: en destrueix, en genera de nous i, de manera molt general, en canvia continguts i formes. La relació entre la IA i el treball és una de les més complexes i que té conseqüències futures molt difícils de preveure. M’hi referiré més endavant.

3.1 Demolició de la privacitat i manipulació  de gustos i opinions

El perill més gran dels relacionats amb la IA no es atribuïble en exclusiva a la IA, sinó a una combinació d’informàtica, electrònica, miniaturització, Internet (consultes, compres), cercadors, transmissió massiva de textos, sons, imatges i vídeos a través de WhatsApp o d’alguna aplicació similar, generalització del pagament amb targeta de crèdit, ús de mòbils i automòbils amb sistema d’ubicació i aplicacions de reconeixement facial: tot plegat permet, si més no potencialment, que governs i empreses determinades sàpiguen qui som, on som i on hem estat, què volem i què pensem i, per tant, com poden influir en el nostre comportament i, en alguns contextos polítics, sancionar accions i actituds i fins i tot arribar a la limitació de drets. En països amb sistemes democràtics hi ha garanties legals i mecanismes de control de l’acció governamental, però, en canvi, és molt difícil implantar una regulació efectiva de les poques i molt poderoses empreses  privades que posseeixen i fan ús de les dades que arrepleguen via les seves aplicacions

Cal que hi hagi consciència d’aquesta gran amenaça a la privacitat i finalment, doncs, a la llibertat.

I és clar que moltes persones, i àdhuc moltes empreses o organitzacions, no en són conscients i contribueixen a reforçar l’amenaça en confiar documents, sons, imatges i vídeos al núvol, és a dir, a un sistema informàtic situat ves a saber on i sota el control d’alguna de les grans empreses absurdament denominades tecnològiques. És clar que també hi ha qui confia els seus estalvis a fons de pensions privats o que fins i tot pensava que el Banc Popular era una entitat solvent i fiable.

Què podem fer: generar consciència, reclamar transparència, regulació i sistemes efectius de sancions per incompliment de les normes. I comportar-nos amb prudència, sense donar innecessàriament informació a qui la farà servir per als seus fins econòmics o polítics i no pas per als nostres.

En particular, les eines de la IA, i en particular les de la IAG, permeten reforçar els procediments per influir en resultats electorals.

3.2 L’excodificació

No fa gaires anys Joy Buolamwini (fundadora de l’Algorithmic Justice League i autora de treballs sobre la discriminació inherent a algunes aplicacions de la IA) va encunyar el terme excodificació, una síntesi entre exclusió i codificació (en un sentit informàtic: assignació d’un  codi i emmagatzemament de les dades de manera accessible). És a dir, el risc d’exclusió, per l’ús de criteris esbiaixats en aplicacions d’IA en processos de selecció de personal, assignació de plaça universitària, prioritat per rebre un transplantament d’òrgan, atorgament de crèdit o acceptació de la sol·licitud per llogar un pis, per exemple.

Els estudis de Buolamwini i d’altres han detectat aplicacions que causen  sistemàticament perjudicis a minories ètniques o a sectors socials determinats. No es tracta només de casos aïllats que afectin unes poques persones: la constatació que un sistema per a la detecció del frau en la concessió d’ajuts havia multat injustament centenars de famílies, moltes d’ascendència turca i marroquí, va derivar, l’any 2021, en la dimissió del govern dels Països Baixos que presidia Mark Rutte.  I, a més, quan una aplicació ha classificat com a indesitjable una persona, aquesta pot quedar estigmatitzada en totes les aplicacions que hi estiguin connectades.

El biaix, tanmateix, no és imputable a la IA, sinó als criteris que hi han incorporat les persones que han creat l’aplicació (i, per tant, a aquestes persones) o al procés d’entrenament de l’aplicació, basat en dades sobre les decisions adoptades prèviament per éssers humans (responsables d’atorgament de crèdits en una oficina bancària, per exemple). És a dir, el comportament de la IA reprodueix els prejudicis predominants en l’entorn social en què s’ha creat. Si aquest és racista, homòfob o contrari a la immigració procedent del sud global, també ho serà la corresponent aplicació informàtica, potser amb l’agreujant que serà més rígida que un ésser humà encarregat de la mateixa tasca.

3.3 Deterioració dels serveis personals

Ja fa anys que tècniques considerades habitualment com a pertanyents a l’àmbit de la IA s’han anat implantant, en particular, en la interfície entre les persones usuàries i diversos tipus de serveis personals. Pensem, com a exemple principal, en els serveis d’atenció telefònica de les administracions i de grans empreses.

Les conseqüències varien en naturalesa i intensitat, però entre elles s’hi troben la pèrdua de privacitat, la manca de ciberseguretat, la rigidesa en les respostes o el possible mal ús de la informació [08].

4 I què podem esperar de la IA generativa?

Què canviarà la IA generativa? És clar que, en abstracte, es pot especular tot el que es vulgui, però amb el risc de fer volar coloms (o voltors, segons la línia de pensament que s’adopti).

Les aplicacions d’IAG són programes, certament complexos, que generen textos i potser també sons, imatges i vídeos. El resultat que proporcionen s’obté mitjançant unes instruccions, uns algorismes, que, després d’una etapa inicial d’entrenament, operen sobre les dades a què tenen accés.

Per tant, la qualitat del resultat depèn de la base de dades amb què treballa l’aplicació i dels algorismes que incorpora.

El llançament de ChatGPT va generar grans expectatives i, com hem vist, discursos sobre la possible extinció, a mans de la IA, de l’espècie sapiens.

Després, les aigües s’han anat encalmant i han sortit veus que han vingut a dir que potser no n’hi havia per tant i que mai no convé crear falses expectatives, perquè després de la primavera acaba arribant l’hivern (segons una analogia freqüent en textos sobre la història de la IA), com ja ha ocorregut prèviament en dues ocasions.

El que fan ChatGPT i les seves competidores és realment impressionant, com també ho és el fet que aquestes competidores hagin aparegut tan poc temps després de ChatGPT, com si posar a punt una aplicació d’aquest tipus fos com bufar i fer ampolles, cosa que està ben lluny de la realitat.

De tota manera, hi ha opinions que alguns llançaments, inclòs el de Chat GPT, han estat prematurs perquè ha prevalgut el criteri de passar davant de la competència per guanyar quota de mercat sobre el de presentar un producte que  hagi superat les comprovacions pertinents. Això explica, si més no parcialment, que algunes d’aquestes aplicacions cometin errors flagrants o, senzillament, proporcionin informacions imaginàries (com ara fer referència a sentències judicials o articles inexistents), fins al punt que el sector ja ha trobat una manera de referir-se a aquestes anomalies de manera simpàtica i trivialitzant: es tracta d’al·lucinacions, una denominació coherent amb la idea que aquestes aplicacions venen a ser com una mena de persones, les quals, ja se sap, s’equivoquen sovint: errare humanum est.

Bàsicament, aquestes aplicacions (que són xatbots, robots am què pots xatejar) fan tres tipus de coses (em limito a parlar de textos, però pot ser que també proporcionin com a resposta sons, imatges o vídeos):

  • Respondre preguntes (v. g.: Què significa la paraula excodificació?). El resultat és un text, que pot ser  divagador o una resposta precisa, correcta o no i justificada o no amb referències a les fonts de la informació.
  • Revisar, traduir i adaptar textos.
  • Escriure textos, d’acord amb les indicacions que li proporciona la persona usuària. Pot tractar-se d’una instància, d’un article d’opinió sobre un tema especificat (fins i tot a la manera d’una persona determinada), un poema (líric, eròtic, èpic, humorístic…), un treball escolar, un guió per a un episodi d’una sèrie de TV o un argument per a una obra de teatre, un discurs per celebrar un aniversari o alguna cosa semblant, un codi informàtic… Se li poden donar indicacions sobre la llengua, l’extensió, l’estil (més o menys formal…) i elements que es desitgi que s’incloguin o no en la resposta (per exemple, quina mena de personatges es vol que figurin a l’argument de l’obra de teatre i fins i tot quins tipus de relació hi han de tenir…). Obtinguda la resposta (normalment en molt poc temps), se li pot demanar que en faci una versió més curta, més llarga, no tan formal… I, òbviament, es pot revisar i modificar.
4.1 Millorar la productivitat i trasbalsar l’ocupació, les feines i l’economia

La capacitat de generar textos, sons i imatges és el que caracteritza la IAG i és la seva aportació més espectacular. Pot facilitar la vida de les persones (escriure o proporcionar un text esquemàtic d’una instància, un missatge, una felicitació…) i de les empreses i altres organitzacions (generar esquemes d’informes, convocatòries, actes de reunions, presentacions, imatges publicitàries, cobertes de llibres…). 

La IAG, doncs, té el potencial de millorar la productivitat, en uns sectors més que en altres, en unes feines més que en altres. Per tant, té un impacte potencial sobre el volum i l’estructura de l’ocupació i sobre el contingut de les feines.

Totes les innovacions tecnològiques tenen efectes sobre un nombre més o menys gran de llocs de treball. Pot ser perquè redueixin el nombre de persones necessari per dur a terme una feina determinada (robots de muntatge i de control de qualitat, visió artificial, caixers automàtics, lectura de codis de barres en magatzems i caixes dels supermercats, cobrament de peatges en les autopistes…) o perquè permetin fer més coses i modifiquin la manera de treballar sense posar en perill l’existència del lloc de treball (impacte de la Internet en les activitats de recerca). D’una altra banda, apareixen ocupacions vinculades a la nova tecnologia (com ara projectar, fabricar i mantenir caixers automàtics o lectors de codis de barres).

Segons la teoria de Schumpeter sobre la destrucció creativa, el capitalisme progressa d’aquesta manera. Uns sectors decauen i alliberen recursos i uns altres en demanen més. Que el saldo sigui positiu o negatiu sempre ha estat molt difícil de preveure perquè, entre altres coses, sovint els usos d’una tecnologia nova (com el làser) es van descobrint progressivament.

L’única seguretat és que una part de les persones que ocupaven els llocs de treball que es perden no poden, per raons d’edat i de formació, aspirar a ocupar els que es creen. És a dir, sempre hi ha persones damnificades i perquè aquestes no paguin la factura de la innovació, o no la paguin del tot, l’Administració ha d’arbitrar les mesures de protecció oportunes.

L’impacte de la IAG sobre l’ocupació serà molt diferent en els diversos sectors d’activitat. Per exemple, es pot veure especialment afectada la creació artística i la programació d’ordinadors, mentre que no sembla que se’n puguin derivar retallades significatives immediates de l’ocupació en tasques com la neteja de locals o la verema, entre moltes altres.

El cert és que empreses com a Amazon han dut a terme, l’any 2025, reduccions importants de personal i n’han anunciat de més contundents. Aquests efectes no són imputables exclusivament a la IAG, sinó a un conjunt de tecnologies (robòtica…). De fet, les reduccions de personal en les entitats financeres han estat conseqüència de tecnologies prèvies a la irrupció de la IAG (informàtica, telemàtica, caixers automàtics).

Per José García Montalvo [09] “la investigació  sobre l’impacte de la IA sobre l’ocupació es cada vegada més voluminosa, però també força inconsistent en els seus resultats” i “els beneficis d’aquestes tecnologies no són totalment visibles i són difícils de predir”. I és que el mateix autor, en un article anterior (Incredulidad econòmica, 03/12/2023) afirmava que “sembla que les regles econòmiques no han canviat però que la velocitat a què actuen ha canviat temporalment” (i, en haver-se reduït aquesta velocitat, caldria més temps per veure per on van les coses).

El gener de 2024 el Fons Monetari Internacional va publicar, de cara a la reunió de Davos, un informe sobre les relacions entre la IA i el futur laboral.  Segons l’informe esmentat (LV, 15/01/2024) , suposarà una retallada del 40 % de llocs de treball (la qual cosa implicaria, dic jo, un col·lapse social d’una magnitud desconeguda fins ara). Més endavant, tanmateix, diu que “el 40 % de les feines estaran exposades a la IA” i que “l’impacte arribaria a ser del 60% però no tot seria de caràcter destructiu”. Encara sort!

I l’FMI no és l’únic que augura aquesta mena d’apocalipsi laboral.

Però  l’exposició o el contacte amb la IA d’un lloc de treball és ben diferent de la supressió d’aquest a causa de la IA. Moltes aplicacions informàtiques noves o, en general, noves eines de treball impliquen canvis en moltes feines i, la majoria, permeten que la segueixi fent la mateixa persona que les estava fent, després d’una adaptació o d’un període de formació més o menys llarg.

L’any 2025 es va començar a parlar, amb intensitat creixent, ‘una bombolla de la IA, anàloga a la de les empreses puntcom al voltant del canvi de segle. Hi ha dades que abonen aquesta hipòtesi. El valor en borsa d’Open AI (propietària de CjhatGPT)és d’uns 500.000 M$, que ve a ser un 30 % del PIB d’Espanya, amb previsió d’ingressos anuals de 13.000 M$ i pèrdues de 44.000 M$ fins a 2029. I mentrestant els anuncis d’inversions milmil·lionàries en el sector, coexisteixen amb dubtes creixents sobre la seva rendibilitat.

4.2 Desvirtuar els processos i els resultats de l’ensenyament

La IAG pot agreujar algunes tendències que, amb modalitats diferents, han estat vigents des de fa temps en tots els sectors de l’ensenyament.

Vist el que fan les aplicacions de la IAG no sembla que haurien de tenir repercussions significatives  repercussions significatives en l’activitat docent (però sí en la discent, com comentaré de seguida). El professorat ha anat incorporant tecnologies en les seves activitats, sense que això n’hagi canviat la naturalesa. Ah, però la IAG segurament reforçarà la línia d’introduir a les aules totes les tecnologies imaginables i convertir-se en un dels millors clients de les empreses subministradores de maquinari i programari, sense aturar-se a analitzar, aparentment, quin benefici pot obtenir l’estudiantat d’aquesta despesa, que es fa a costa de no cobrir necessitats evidents i urgents de personal i d’instal·lacions. No es tracta d’una obsessió premonitòria personal: a La Vanguardia del 14/02/2024 Carina Farreras  informava que aquell mes de febrer el Departament d’Educació va enviar als centres docents unes recomanacions per incorporar la IA al procés educatiu, no abans dels 13 anys, per fer-la servir com a motor de millora, això sí, sense deixar de reflexionar “de quina manera deixem entrar la IA a l’aula” (és a dir, de moment fem-la entrar i després ja reflexionarem sobre com ho fem). També surten un dia sí i un altre també articles que promouen l’ús de la IA en l’ensenyament i la introducció en els plans d’estudis d’assignatures d’IA.

I el personal discent, l’alumnat, ha adoptat veloçment la IAG com a eina per aprendre o, potser, per aprovar sense necessitat d’aprendre.

Tot plegat té , si més no, tres implicacions:

  • Pèrdua de les capacitats  de llegir i escriure, delegades a la IAG, i, per tant, de la capacitat d’aprendre realment coneixements de tot tipus: la IA generativa ens farà closques buides, ha escrit Éric Sadin.
  • Penetració de les ideologies hegemòniques, amb els biaixos propis dels executius que governen les empreses del sector (com ara Musk, etc.).
  • Desvirtuació dels processos d’avaluació de l’alumnat, en què ha anat guanyant pes la presentació de treballs individuals i col·lectius, en un context de campanyes persistents contra els exàmens. Si  l’estudiant encarrega a ChatGPT que li faci un treball, amb tema, extensió i orientació donades, potser obtindrà una nota immerescuda. Però això no és una novetat: un treball pot resultar d’un plagi de fonts obtingudes en biblioteques o via la xarxa o fins i tot es pot encarregar a empreses que fan per encàrrec treballs acadèmics, incloent presumptes tesis doctorals. És clar que hi ha aplicacions per a gairebé qualsevol cosa que se’ns pugui ocórrer i per descomptat n’hi ha per detectar plagis, però també per refer els textos de manera que el plagi sigui més difícil de detectar o per refer un text procedent de la IAG per dissimular-ne l’origen. Fer un treball pot ser una activitat formativa molt interessant, però, és clar, a condició que sigui el resultat de l’esforç de l’estudiant. I també s’ha de tenir en compte que un aprovat en una assignatura és un certificat oficial que l’estudiant ha adquirit un nivell de coneixements determinat, de manera que si la qualificació es basa en tot o en part en treballs d’autoria desconeguda es pot incórrer en una mena de falsedat, amb conseqüències molt negatives. Per tal d’evitar-les s’ha proposat que l’estudiant declari sota la seva responsabilitat quina intervenció ha tingut la IAG en l’elaboració del treball, però ja es veu que això no serviria de res: fins i tot es podria donar el cas que l’estudiant encomanés a la IAG  la feina d’escriure la declaració.  Per fer front al problema, cal una reflexió global sobre els procediments d’avaluació i els recursos necessaris perquè siguin fiables.   
4.3 Modificar els processos de recerca i facilitar el frau científic

La IAG pot facilitar la recerca bibliogràfica, la redacció o la millora  de fragments d’articles científics i d’informes d’avaluació en els processos de revisió d’aquests articles (no m’hi estenc, però podeu trobar més elements sobre aquestes qüestions a la referència que figura en la nota [10]).

D’una altra banda, una bona aplicació d’IAG pot generar, a partir de peticions ben estructurades d’una persona entrenada per fer-ho, articles sencers mancats de fonament o fins i tot buits de contingut però amb aparences prou bones per donar-los  probabilitats no negligibles de ser publicats en mitjans més o menys acreditats. Per tant, els membres del club del frau científic, que compta fins i tot amb personalitats il·lustres, disposen d’una eina eficient per ampliar les seves malifetes.

4.4 Devastar qualitativament i quantitativament el sector de la cultura

La cultura és un sector en què la IAG, per la capacitat de generar textos i imatges, té un potencial destructor més alt.

No sols per l’impacte sobre els llocs de treball (guionistes, grafistes…) i la consegüent contracció del sector, amb el que això suposa per al conjunt de la societat. També per l’empobriment de continguts i del nivell artístic de les arts plàstiques.

En particular, les IAG poden atemptar contra els drets de propietat intel·lectual, amb els efectes consegüents sobre l’economia del sector. Aquest és un perill molt obvi de la IAG  i s’ha comentat a bastament. L’aplicació d’IAG pot generar un text, potser diferent de qualsevol que s’hagi publicat anteriorment, però ho fa a partir de textos existents i, per tant,  s’aprofita de la feina d’autores i autors, persones,  sense que aquestes rebin res a canvi.

Aquest problema no té solució fàcil. Es poden fer lleis i reglaments, però la possibilitat que aquestes disposicions siguin efectives sembla remota.

4.5 Facilitar la generació de notícies, informacions, imatges… falses

La possibilitat de suplantar la imatge i la veu de persones concretes facilita l’assetjament i l’engany.

Per exemple, es va aplicar la IAG per demanar donacions amb una imitació de la veu del bisbe de Mèrida, amb la qual devia estar familiaritzada la feligresia.

4.6 Reforçar els biaixos en les respostes a les consultes

Pel que fa a respondre preguntes, en el sentit de  cercar i proporcionar-nos respostes específiques, la novetat, en relació amb els motors de cerca com Google, és la forma de la resposta. Google proporciona enllaços a fonts diverses, que sovint són molt nombroses i la usuària s’ha de construir la resposta a partir de la informació que obté de les fonts que decideix consultar. En canvi, les aplicacions de la IAG elaboren una resposta a partir de les fonts que la mateixa aplicació decideix i que identifica o no, segons l’aplicació o la versió utilitzada (però sembla que es va imposant la tendència a identificar-les).

Per tant, la implantació de la IAG reforçaria, en reduir la diversitat de les fonts a partir de criteris no explícits, els biaixos que es produeixen en fer una consulta a la xarxa amb un motor de cerca com Google (perquè té un sistema per prioritzar les fonts, i perquè a la xarxa hi ha més informació en unes llengües que en unes altres i hi predomina l’associada als corrents de pensament hegemònics en relació amb els minoritaris i heterodoxos).

4.7 Fomentar l’aïllament d’individus i de grups

Això no és cap novetat, perquè la Internet, les xarxes socials i els telèfons mòbils tendeixen a reforçar la relació de cada persona o de grups de persones amb els dispositius, en detriment de les relacions socials, interpersonals, sense interposició de pantalles.

La IAG segurament reforçarà aquestes tendències, perquè la relació amb les seves aplicacions s’assembla molt a la que es pot tenir amb una altra persona, perquè s’hi pot establir un diàleg, i pot ser molt divertida, perquè les aplicacions et poden proporcionar, informacions, suggeriments i imatges i també ajudar la usuària a fer creacions de tota mena. Amb la IAG, doncs, es pot passar una llarga bona estona sense contactes amb altres éssers humans.

4.8 Augmentar els consums d’electricitat i d’aigua

L’ús de la IAG implica, tant per a l’entrenament del sistema, com pera  la recepció de peticions i la generació i transmissió de les respostes, consums significatius d’aigua i d’energia.

Però al respecte es diuen coses dispars o fins i tot buides de contingut. Segons un article publicat a sinpermiso “els models d’entrenament de la IA consumeixen 6.000 vegades més energia que una ciutat europea”, però no especifica si es refereix a París o a Sant Cugat, posem per cas; anàlogament, el president de Telefónica va declarar que una petició —un prompt— a “una IA”  generava un consum d’electricitat equivalent al d’una bombeta LED encesa durant dues hores, però sense especificar la potència de la bombeta, i equivalia a “beure 500 ml d’aigua”.

Segons la resposta a una consulta via Google (05/06/2024) The New Yorker “informa” que ChatGPT consumeix diàriament més de mig milió de kWh d’electricitat i que aquest consum correspondria a uns 200 milions de sol·licituds [11] (per tant, a una mitjana de 0,0025 kWh, que ve a ser el consum d’una bombeta de 5 W durant mitja hora) i, com que diu que el consum diari d’una llar estatunidenca mitjana és de 29 kWh (unes tres vegades el consum mitjà d’una llar espanyola) , equivaldria al consum domèstic d’electricitat d’una ciutat estatunidenca mitjana de 17.241 llars, on potser viurien unes 50.000 persones. Si això fos així, el consum diari d’electricitat de ChatGPT vindria a ser el 0,015 % del consum domèstic d’electricitat del Estats Units, que només és una part del consum energètic d’aquell país (on també es consumeix energia no elèctrica i electricitat per a activitats industrials, agrícoles i extractives).

Un article publicat a la web d’Endesa  diu que, segons un estudi conjunt de personal investigador de les universitats de Riverside i Arlington, “una sola conversa d’entre 20 i 50 preguntes amb ChatGPT requereix uns 500 ml d’aigua i entre 0,001 i 0,01 kWh” (molt per sota del consum indicat en el paràgraf anterior, que es refereix a una sol·licitud i no a una conversa).

Potser només OpenAI (l’empresa de ChatGPT) deu tenir una informació fidedigna dels seus consums, però no mostra interès per difondre-la.

A més,des de fora de les empreses del sector és pràcticament impossible esbrinar quina part del consum correspon a la IAG, a altres aplicacions de la IA o a servis diversos, com ara l’emmagatzemament de dades i imatges en el núvol, és a dir, en centres de dades.

OpenAI, l’empresa de ChatGPT, ha dit que construiria centres de dades que en conjunt requeririen una potència de  10 GW. Això pot ser una exageració, però s’ha estimat que el consum d’energia del conjunt de les empreses del sector ha augmentat un 150 % en tres anys. I a Espanya hi ha diversos projectes d’instal·lació de centres de dades de gran envergadura.

Per tant, tot i amb la poca fiabilitat de les dades, podem concloure que l’impacte mediambiental de ChatGPT  és rellevant, i creix ràpidament, però no és el resultat més important d’aquesta aplicació ni de les seves competidores.

Una altra cosa és què passarà en el futur, però les previsions són particularment aventurades quan es refereixen a un fenomen tan incipient com la IAG.

5 Per acabar

Els algorismes, les aplicacions informàtiques (tant si es diu que són d’IA com si no) i l’abaratiment progressiu de l’emmagatzemament de dades, de la potència de càlcul i de les telecomunicacions han tingut i seguiran tenint un impacte significatiu en l’economia i en els comportaments personals, però no sembla que hi hagi dades o arguments que facin pensar que aquestes innovacions ens portin a un col·lapse i fins i tot a la desaparició de l’espècie (que, en tot cas, podria arribar per altres vies).

Però sí que poden tenir efectes severs sobre la privacitat i els drets de les persones i, en particular, de col·lectius discriminats i sobre sectors de la població que perdin el seus llocs de treball i no en puguin assolir de nous.

La qüestió, va dir aproximadament Humpty-Dumpty a Alícia és qui mana. I ara mateix, en els denominats països occidentals la IA està en mans d’unes poques empreses dirigides per personatges  ultradretans, amb què es configura el que s’ha denominat tecnoauitoritarisme o tecnofeudalisma, un perill que s’ha accentuat des del moment que aquestes empreses s’han arrenglerat amb Donald Trump. En canvi, potser no és per ara mateix, però s’ha parlat d’un model europeu d’IA que seria públic, lliure i obert i s’ha anunciat la construcció, amb participació pública  d’un model espanyol de llenguatge d’IA. La qüestió, tornem-hi, és qui mana, perquè segons qui mani, qui controli aquestes tecnologies, aquestes eines, ho farà per al bé comú o per al seu particular benefici monetari, polític i ideològic [12].

NOTES

[01] Això era cert en el moment que es va publicar l’entrada, però després es va intensificar la publicació de notícies, articles i llibres sobre la IA.

[02] En el llibre 100 coses que cal saber sobre la intel·ligència artificial (Cossetània, 2023) hi ha un capítol titulat “Els màgics d’Oz de la intel·ligència artificial”, en què l’autor, Ramon López de Mántaras, es refereix a les “persones que treballen darrera el teló”, sovint amb retribucions irrisòries,  per generar respostes en casos que l’aplicació no se’n surt o per evitar que aquesta enviï textos racistes o que incitin  a accions violentes.

Els màgics d’Oz de què parlo, en canvi, són les persones que controlen els negocis que generen i comercialitzen les aplicacions

[03] Ramon López de Mántaras, Tots estem en risc de ser excodificats. La Vanguardia, 02/11/2023.

[04] Yuval Noah Harari, Cómo evitar una nueva era del imperialismo (04/06/2024).

[05] Entrevista a Ramon López de Mántaras, Em fa més por l’estupidesa natural que no pas  la intel·ligència artificial.

[06] Basilio Baltasar, El día que todo empezó. La Vanguardia, 01/06/2024.

Seria interessant esbrinar com és que hi ha gent, com el Nick Bostrom, que cobra regularment un sou perquè pugui arribar a formular unes conclusions com les esmentades.

[07] Les dues cites d’aquest paràgraf són de Daniel Innerarity, segons l’article de Jorge Carrión “Oráculos de la IA: el boom de libros que inerrogan a una inteligencia artificial que quizá temamos” (La Vanguardia, 19/08/2025).

[08] D. Belanche et al., The dark side of artificial intelligence in services. The Service Industries Journal, 2024, 44, 3-4, 149-172.

[09] AI… ¿qué fue de mi empleo?, La Vanguardia, 25/02/2024.

[10] Ethan Mollick, Four Singularities for Research, 26/05/2024.

Agraeixo al prof. J. M. Monguet, de la UPC, haver-me proporcionat aquesta referència.

[11] Però, segons un article a La Vanguardia (23/06/2024) sobre el fundador de Perplexity, “es parla” que ChatGPT supera els 1.000 milions de visites mensuals (sense especificar què entén per “visita”).

[12] Resulta inquietant que la professora Carissa Véliz, membre del Consejo Assessor Internacional de IA, òrgan consultiu del govern d’Espanya,  no tingui idees prou clares al respecte: “Jo noi vull utilitzar Google. Jo vull una empresa europea que tingui els meus valors i que protegeixi la meva democràcia” (a Carlos del Castillo, elDiario.es, 11/12/2025)

Deixa un comentari