Fa poc més d’un any, el món es va fer ressò d’un fet que ha marcat un abans i un després en el camp de la intel·ligència artificial. Em referesc a l’aparició del ChatGPT de l’empresa OpenAI, un sistema intel·ligent entrenat per mantenir converses amb persones i respondre de forma «natural» a les preguntes que se li formulen. Aquest fet ha constituït un avenç qualitatiu i quantitatiu en la intel·ligència artificial generativa, introduint noves aplicacions com la creació i reconeixement d’imatges i de veu així com la creació d’assistents virtuals.

Aquests exemples d’aplicació de la intel·ligència artificial obren el debat sobre les seves implicacions ètiques i emergeixen preocupacions greus sobre la seguretat i la privacitat de les persones. Malauradament, hi ha massa persones i organitzacions dedicades a generar inseguretat en el ciberespai, és a dir, la ciber-inseguretat, a través d’intel·ligència artificial, posant en perill dades personals.

A tall d’exemple, són possibles atacs als sistemes de reconeixement d’imatges, enganyats per imatges falses; als sistemes de reconeixement facial i de veu, suplantant la identitat, amb la creació d’imatges i reproducció de la veu; atacs als assistents virtuals, per robar informació personal; atacs als xatbots d’atenció al client, duent a terme accions de phishing o difonent informació falsa; atacs als vehicles autònoms i als robots que prenen decisions en temps real, mitjançant la suplantació del control, posant en risc la seguretat de les persones.

Aquestes i altres amenaces són les que generen major ciber-inseguretat, contra la qual s’ha d’enfortir la ciberseguretat dels sistemes a mesura que evolucionen aquestes amenaces. La ciberseguretat ha d’exercir un paper fonamental i crític en la implementació i l’ús segur de la intel·ligència artificial, per garantir la protecció de dades, la integritat dels sistemes i la resistència als ciberatacs, afavorint així l’ús de la intel·ligència artificial en un entorn segur i confiable.

Abordar aquestes garanties és l’objectiu de la Llei de la intel·ligència artificial de la Unió Europea, aprovada el passat dia 13 de març. Aquesta legislació establirà regulacions estrictes per garantir la protecció dels drets fonamentals dels ciutadans, incloent-hi l’avaluació de riscs, la transparència en el funcionament dels sistemes i la prohibició de discriminació. A més, requereix la supervisió humana en certs casos crítics, com la presa de decisions en l’àmbit legal o mèdic, i l’establiment d’un registre de sistemes d’alt risc, com els utilitzats en transport o salut. Les organitzacions que no compleixin la llei es poden enfrontar a sancions econòmiques. Això, per aconseguir que la intel·ligència artificial tengui un impacte ètic que la converteixi en una eina positiva per al progrés humà.

En definitiva, si fa poc més d’un any l’aparició del xatGPT va incrementar l’interès per la intel·ligència artificial (100 milions d’usuaris en el primer mes), les seves aplicacions generen preocupació per les conseqüències del seu ús. La llei esmentada cerca equilibrar, a través de mesures i regulacions, la necessària innovació en aquest àmbit amb la indefugible protecció dels drets humans. Per això, la ciberseguretat i l’ètica han de ser prioritats constants de les organitzacions, alhora que els desenvolupadors han de ser conscients de les seves responsabilitats, per garantir que la tecnologia sigui utilitzada de manera responsable i segura. Esperem que aquesta iniciativa, pionera a escala mundial, incentivi la majoria dels països a replicar-la. Altrament, podria crear-se una illa en el món digital, en el ciberespai, que rebi les innovacions i els seus impactes des de l’exterior, el que ens faria perdre competitivitat.l