Inicio Tech y Robotica Ètica aplicada a la intel·ligència artificial
España   Catalunia

Ètica aplicada a la intel·ligència artificial

No tot el que es pot fer s’ha de fer

Que la intel·ligència artificial està revolucionant el món actual ja no és notícia per ningú. Després de l'eufòria que suposa veure grans evolucions com ChatGPT o GPT3 ressona una pregunta a la qual poques persones s'atreveixen a contestar: on està el límit?

L'ètica aplicada a la tecnologia ens mostra que no tot el que es pot fer s'ha de fer

L'ètica, un concepte que poques vegades hem vist lligar-se a la tecnologia, és la resposta a aquestes pors que tots tenim i que pocs expressen. Com bé afirma el docent i investigador Javier Camacho, «l'ètica intenta respondre la pregunta “què he de fer?” i la tecnologia respon de vegades la pregunta “què puc fer?”. Si les ajuntem el que surt és que no tot el que es pot fer s’ha de fer».

Tres són les característiques que distingeixen l'ésser humà dels animals i de les màquines intel·ligents segons Camacho: «llibertat, consciència i voluntat». Aquesta ètica que ens caracteritza també és la que ens fa responsables de les accions de l'IA. Tal com apunta l'experta en IA Mónica Villas, «darrere d'eines com ChatGPT el que hi ha és una programació mitjançant codi matemàtic que el que fa és predir la propera paraula i la manera de respondre», així doncs, nosaltres posem la intenció i la màquina executa l’acció.

Urgeix pensar èticament la nostra convivència amb l'IA

Som els humans de la nostra era, i com bé assenyala Camacho, «no podem entendre el desenvolupament tecnològic sense les persones, ni la persona d'avui sense l'impacte de la tecnologia». Per això, com expressa Txetxu Ausín, director del grup d'Ètica Aplicada del CSIC (Centro Superior de Investigaciones Científicas), «urgeix pensar èticament la nostra convivència amb l'IA». De fet, «la pràctica de l'ús d'una tecnologia està estretament relacionada amb els principis ètics que incorpora i és la condició bàsica per a la seva apropiació i acceptació per part de la comunitat, fet que contribuirà a l'empoderament tecnològic de la ciutadania».

D'altra banda, el director de l'observatori d'Ètica en Intel·ligència Artificial de Catalunya, Albert Sabater, apunta que cal tenir un coneixement més enllà del merament tècnic sobre l'IA, i afirma que avui dia «mentre la bretxa d'habilitats i competències en les anomenades STEM està ben documentada, encara no hem entès completament l'escala del repte que suposa la incorporació de l'IA per part de diferents ocupacions creatives i, per descomptat, per l'àmbit de l'educació». Considera que en aquest moment és important abordar preguntes crucials com, per exemple, com aprendran les nenes i els nens a escriure si no han d'elaborar els seus escrits ells mateixos? Sabater alerta que «si aquesta tendència continua, les nacions de tot el món aviat produiran generacions de màquines útils, més que ciutadans complets que puguin pensar per ells mateixos».

El pensament crític i la formació humanista es presenten en aquest context com a claus. Les intel·ligències artificials no deixen de ser màquines, per la qual cosa no se'ls pot ensinistrar en valors morals, ja que això suposaria entrenar-les amb experiències personals, cosa que contradiu l'ètica. A més, com també ressalta Sabater, «la constant exageració i mística de l'IA generativa fa que hi hagi malentesos sobre què és la “intel·ligència artificial” i la “creació o generació de continguts” i, com a conseqüència, que es menystinguin les nostres capacitats per uns interessos comercials, tal com es demostra cada cop que es parla d'utilitzar-la per substituir els humans».

Amb l’objectiu de promoure la recerca interdisciplinària i transversal, fomentar els vincles amb la indústria i formar la pròxima generació de talent destacat en aquest camp, Catalunya s’ha integrat recentment a la xarxa europea d'excel·lència de recerca en intel·ligència artificial. La Unitat ELLIS Barcelona (European Laboratory for Learning and Intelligent Systems) serà la tercera més gran de la xarxa i estarà formada per 21 investigadors de cinc universitats i cinc centres de recerca del sistema català de coneixement.

Reptes de l'IA per a la humanitat

Alguns dels reptes ètics que planteja el desenvolupament de l'IA són la privacitat, la formació de la pròpia identitat, l'atribució de responsabilitat o els biaixos en el processament de dades.

En aquest sentit, una de les grans qüestions que es plantegen pensadors i investigadors és si l'IA ens treu el poder de decisió o és una nova manera d'aprofitar el nostre poder de decisió; per a Ramón López de Mántaras, professor emèrit de recerca del CSIC a l'Institut de Recerca en Intel·ligència Artificial, l'IA fa totes dues coses; un exemple d'això serien els cotxes autònoms, que ens treuen poder de decisió a la carretera, però també suposen una nova manera d'aprofitar aquest poder que tenim.

Si hi ha un accident amb un vehicle monitoritzat, qui n'és el responsable: el programador, l'empresa distribuïdora, l'encarregat de manteniment o el conductor?

Amb tot, precisament l'exemple dels cotxes autònoms és paradigmàtic, ja que una de les preocupacions és quin principi aplicarà l'IA a l'hora de decidir, fet que ens porta a obrir un altre gran debat sobre la responsabilitat de les accions d'aquestes intel·ligències artificials. Sobre això Txetxu Ausín planteja la qüestió següent: «Si hi ha un accident amb un vehicle monitoritzat, qui n'és el responsable: el programador, l'empresa distribuïdora, l'encarregat de manteniment o el conductor?». D'aquí se'n deriva la importància de comptar amb unes bases ètiques i jurídiques, per evitar que aquests artefactes actuïn fora de la llei.

De fet, a Europa la solució s'encamina a la regulació; de moment els Estats membres de la Conferència General de la UNESCO el 2021 van adoptar la Recomanació sobre l'Ètica de la Intel·ligència Artificial, el primer instrument normatiu mundial sobre el tema, i que té com a objectius la protecció i promoció dels drets humans i la dignitat humana, i esdevenir una guia ètica i una base normativa global que permeti construir un sòlid respecte per l'Estat de dret al món digital.

De la mateixa manera, la Unió Europea el mateix any ha començat a plantejar un marc regulador de l'IA amb la Llei d'Intel·ligència Artificial, i a Espanya s'ha presentat l'Estratègia Nacional d'Intel·ligència Artificial.

Com a societat hem de poder decidir, quan hi ha massa riscos, que no volem desenvolupar determinada investigació tecnològica

Les tecnologies «ofereixen possibilitats, però també amenaces», per la qual cosa es converteix en urgent posar línies vermelles als algorismes com va advertir la sociòloga Nuria Valles: «No tenen capacitat moral per si mateixos, no poden discernir el que està bé del que no ho està. Per això, com a societat hem de poder decidir, quan hi ha massa riscos, que no volem desenvolupar determinada investigació tecnològica». Judith Membrives, de Lafede.cat, assegura que «cal adaptar els drets humans a l'entorn digital, ja que la tecnologia no ha provocat la vulneració de drets, el que ha fet és perpetuar-la i intensificar-la».

Ja no som jutjats sobre la base de les nostres accions reals sinó sobre allò que l'IA indica que seran les nostres accions probables

Així mateix, Ausín alerta de les conseqüències de l'excessiva dependència de les dades que ens converteixen en un «jo quantificador»: «Les prediccions i decisions d'organismes, institucions i empreses es basen cada cop més en les dades proporcionades per algorismes, cosa que significa que ja no som jutjats sobre la base de les nostres accions reals sinó sobre allò que l'IA indica que seran les nostres accions probables. Això pot afectar la decisió d'institucions de concedir o no una ajuda social, de considerar-nos un suposat sospitós d'actes de delinqüència o, en el cas d'altres països, de denegar una assegurança de salut per les possibles patologies futures del pacient». A això Membrives afegeix el cas d'algorismes que puntuen sobre el risc de reincidència dels presos i que presenten problemes de racisme i masclisme, i el mal ús que es pot fer dels programes de reconeixement facial en el context migratori.

Un estudi revela que l'automatització ha reduït els salaris de les persones sense titulació entre el 2,3 % i el 8,8 % des del 1980

Tot i això, com bé defensa Ulises Cortés del Barcelona Supercomputing Center, «els algoritmes busquen l'eficiència, però són els polítics i les empreses qui en fan un ús o un altre, és a dir, aquells que decideixen si busquen incrementar la justícia social o no». Un exemple el veiem en el que revela un estudi del Massachusetts Institute of Technology, segons el qual l'automatització ha reduït els salaris de les persones sense titulació entre un 2,3 % i un 8,8 % des del 1980. A l'estudi es posa èmfasi en què «quan utilitzem les caixes d'autoservei estem, d'una banda, ajudant els empresaris a reduir costos salarials, i de l'altra, contribuint de manera significativa a la desigualtat d'ingressos que cada cop és més acusada».

Tornant a la qüestió que plantejava Judith Membrives sobre la tecnologia com a perpetuadora dels prejudicis i estereotips, els biaixos es presenten com un dels principals defectes de la intel·ligència artificial; d'aquí la necessitat de comptar amb una visió humanística en el desenvolupament de les IA, ja que com bé assenyala Sara Degli-Esposti, filòsofa a l'Instituto de Filosofía del CSIC i experta en ciberseguretat, «el programador no té coneixements d'història o filosofia, per la qual cosa no pot interpretar els biaixos de les dades que introdueix per donar instruccions a l'algorisme que educa i entrena».

El futur de l'IA apunta a una dependència menor de les dades, segons Ramón López, que assegura que «l'actual statu quo no és sostenible, ja que les infraestructures de dades consumeixen una quantitat d'energia molt considerable». Al respecte ha defensat la necessitat que es parli d'«Small Data en contraposició al Big Data».

Fonts:

https://www.youtube.com/watch?v=0zjhrG4PCss

https://www.udg.edu/ca/catedres/OEIAC

https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica

https://www.unesco.org/es/artificial-intelligence/recommendation-ethics

https://www.linkedin.com/news/story/este-robot-te-baja-el-sueldo-5190609/

https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206

https://planderecuperacion.gob.es/politicas-y-componentes/componente-16-estrategia-nacional-de-inteligencia-artificial

Sin Comentarios

Escribe un comentario

Tu correo electrónico no se publicará