Experts del BSC dissenyen un sistema per alertar els usuaris dels efectes que tenen les aplicacions basades en IA de manera ràpida i entenedora

27 Octubre 2020

Investigadors del Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC) experts en intel·ligència artificial proposen un conjunt d’icones visuals i d’informació concisa per als usuaris que interactuen amb aplicacions i serveis que facin ús de tecnologia d’IA. L’objectiu és que tothom pugui comprendre de manera ràpida i intuïtiva sota quines condicions de privacitat opera cada servei, així com de la possible existència de biaixos en la seva interacció. El sistema d’informació que plantegen els investigadors es basa en criteris ètics de privacitat i transparència i té com a objectiu facilitar als usuaris la decisió d’utilitzar o no les aplicacions que incorporen IA. La proposta simplifica i estén les notificacions actuals respecte els termes i condicions d’ús, que en la majoria dels casos resulten confuses i molestes per als usuaris.

“Per garantir el desenvolupament i ús responsable de la IA, s’ha d’implicar la societat i fer-la conscient de les capacitats i limitacions d’aquesta tecnologia”, opina Àtia Cortés Martínez, investigadora del BSC i experta en temes d’ètica i intel·ligència artificial i participant en la proposta. “Això implica proporcionar les eines necessàries i simples perquè els usuaris siguin capaços d’entendre els processos que hi ha darrere d’un algoritme, com ara el tractament de les dades i la presa de decisions automàtiques. Només així podrem establir una relació de confiança envers les noves tecnologies”.

Els investigadors del BSC posen el focus en dos aspectes de la IA que tenen conseqüències directes per als usuaris. Per una banda, quines concessions implica l’ús del sistema en allò referent a la privacitat de les seves dades personals. Per l’altra, quin és el grau de transparència que existeix sobre el sistema d’IA (què fa i com ho fa) i si el seu comportament vers l’usuari és objectiu o personalitzat.

Darío Garcia-Gasulla, primer autor de la proposta, explica que “cada vegada hi ha més serveis que utilitzen intel·ligència artificial, però ens és impossible saber exactament quants, ja que ni tan sols som informats de la seva presència. Els usuaris hem de saber quins drets estem cedint a canvi dels serveis que se’ns ofereixen i fins a quin punt pot arribar a estar esbiaixada la informació que consumim”.

En relació a la privacitat de les dades, i basant-se en el que marca la regulació europea sobre privacitat de dades personals (GDPR), els autors proposen donar als usuaris respostes clares a preguntes com “S’estan recopilant les meves dades personals?”, “Quines?”, “Amb quin propòsit?”. Per fer-ho més fàcil, un primer nivell en format semàfor de tres colors notifica de la captura i/o difusió de dades personals a tercers.

 

Sobre la transparència dels sistemes d’IA, els autors consideren que els usuaris han de ser informats sobre com a mínim dos aspectes: 1) si és possible conèixer els algoritmes, els models i el contingut de les bases de dades en què se sustenta el programa. Aquest aspecte és indispensable per avaluar la possible existència de biaixos i discriminacions; i 2) si la informació que rep l’usuari és personalitzada (és a dir, ajustada a les dades sobre el propi usuari) o si, per contra, es proporciona informació objectiva respecte el consumidor. Aquest segon aspecte té rellevància en el camp de la desinformació (efecte cambres d’eco) i la manipulació.

 

Basant-se en aquestes premisses, els investigadors del BSC han creat un sistema d’alertes en tres nivells: un primer nivell visual molt simple, basat en icones accessibles per a tothom, que permet una presa de decisions mínimament intrusiva però informada; un segon nivell amb informació addicional
molt concisa i estructurada que permetria una major granularitat en les decisions, i un tercer nivell on hi hauria tota la informació i detalls tècnics disponibles, perquè qualsevol usuari pogués realitzar una auditoria sobre les garanties de privacitat del sistema.

“Els sistemes actuals de gestió de drets són hostils amb l’usuari. A mi, que sóc especialment conscient del problema, em suposa un exercici de força de voluntat constant complimentar tots els formularis de privacitat que em trobo a diari. No té sentit que renunciem al nostres drets per avorriment”, afirma Darío Garcia-Gasulla.

L’article científic que presenta i expandeix aquestes idees es troba en període de revisió en una revista internacional de prestigi, però el manuscrit ja es pot trobar en el repositori public arXiv (https://arxiv.org/abs/2009.13871).