INTEL·LIGÈNCIA ARTIFICIAL

Regular usos o enfrontar-se a perills

Els experts ho tenen clar. Si no es regulen els models de llenguatge massius, abanderats pel conegut ChatGPT, la intel·ligència artificial es pot convertir en una eina que ataqui, entre altres, la privacitat i la intimitat de les persones

Ricard Jiménez

Barcelona | 20.06.2023 16:09

Regular usos o enfrontar-se a perills | ACN

Per ara, molts de nosaltres coneixem el ChatGPT com aquella eina que ens permet resumir, sintetitzar i generar textos a través de la intel·ligència artificial. Ara bé, a base de nodrir-lo de dades massives, pot ser útil per a tots els sectors socioeconòmics. Però també pot utilitzar-se per a finalitats negatives. Les estafes telefòniques en són un exemple.

"A través de la intel·ligència artificial generativa, pots generar diàlegs, amb la veu similar a la d'una persona, que serien molt difícils d'identificar." Explica el catedràtic de la Universitat Politècnica de Barcelona, Ulises Cortés, en declaracions a Onda Cero. És més, la multinacional nord-americana Meta va presentar ahir Voicebox. Una eina que funciona amb aquest tipus d'IA.

Altres exemples els trobem en la societat educativa. "La meva experiència m'ha conduït a recuperar els exàmens a paper i bolígraf", explica l'Úlises. De fet, en països com Suècia ja han eliminat les tauletes electròniques als centres educatius.

Alarmisme passiu

El problema és que els ideòlegs d’aquesta eina l’han fet pública sense abans regular el seu ús. I tampoc voler un marc legislatiu, que limiti les seves pràctiques i pugui minvar els beneficis empresarials. Cortés: "Si els fundadors d'aquestes eines no expliquen les seves funcionalitats ni els seus límits, els consumidors no són coneixedors dels seus perills".

De fet, que les administracions busquin regular l'ús de la Intel·ligència Artificial ha obert els ulls als consumidors.

Marc legislatiu

Europa ja ha impulsat la primera llei reguladora. Entre altres, promou que s'avaluï els risc de les innovacions relacionades amb aquesta eina, que es classifiquin per nivells i prohibir les novetats perjudicials per a la societat.

Un cas més concret és el d'Itàlia. En aquest país veí el ChatGPT va ser suspès al març, principalment perquè no es respectava la llei de protecció de dades. I és que no es coneixia la identitat dels usuaris del ChatGPT. Després d'aplicar noves mesures, les autoritats italianes van anunciar a finals d'abril que es complien les condicions per aixecar la prohibició.

Aquesta és una manera de regular el seu ús. Europa ja ha fet el primer pas per regular-ho a nivell comunitari. Els experts indiquen que els països fronterers als Estats Units adoptarien mesures similars a les Europees. Però tots ells necessiten regir-se per un marc legislatiu nord-americà, tot i que sigui més lax.

Més que res perquè si els empresaris decideixen deixar de comercialitzar els seus productes en zones on es restringeix el seu ús de forma bilaterial, aquestes podrien perdre en competitivitat.

Veurem com reacciona els Estats Units,potencia mundial d’aquest sector, però sense límits, els models de llenguatge massius poden provocar certs perills per a la societat.