- Les organitzacions que facin l’autoavaluació obtindran una insígnia de qualitat del grau d’adopció de cadascun dels 7 principis ètics que avalua el model, a més de recomanacions específiques de millora
- L’objectiu últim de la iniciativa és conscienciar l’ecosistema d’innovació sobre la importància d’adoptar l’ètica en la implementació de la IA per fer-la més transparent, explicable, justa, segura, responsable i sostenible
Totes les organitzacions públiques o privades que desenvolupen, despleguen o utilitzen tecnologies de dades i sistemes d’intel·ligència artificial (IA) disposen des d’avui d’una nova eina que els permetrà conèixer el grau d’adopció dels principis ètics fonamentals en l’ús d’aquestes tecnologies i, per tant, saber què els cal treballar i millorar per avançar cap a una adopció de la IA basada en l’ètica i en la responsabilitat. Aquesta és una iniciativa pionera per les seves característiques, ja que és la primera guia d’implementació i autoavaluació de dades i sistemes d’IA que, entre altres coses, permetrà a les organitzacions que la utilitzin obtenir una insígnia de qualitat de retorn.
Es tracta del Model PIO (Principis, Indicadors i Observables), el model d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’IA impulsat per l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) i el Departament de la Vicepresidència i de Polítiques Digitals i Territori, en el marc de l’estratègia Catalonia.AI i amb el suport de la Universitat de Girona (UdG) i la Fundació i2CAT. El model ha estat presentat avui en un acte al Districte Administratiu de la Generalitat que ha comptat amb les intervencions del director general d’Innovació i Economia Digital, Dani Marco; el rector de la UdG, Joaquim Salvi; el director de l’OEIAC, Albert Sabater, i la tècnica de l’OEIAC responsable del projecte, Alícia de Manuel.
Actualment, i cada cop més, les organitzacions públiques i privades (universitats i centres de recerca, administracions públiques, empreses...) inverteixen quantitats importants de recursos per adoptar sistemes d’IA de forma generalitzada, però encara queda molta feina a fer per augmentar les oportunitats i abordar els reptes que aquesta adopció suposa sense una posada en pràctica de principis ètics i mecanismes de responsabilitat.
En aquest sentit, el model PIO neix amb un doble objectiu: d’una banda, sensibilitzar i conscienciar les organitzacions que utilitzen o desenvolupen sistemes d’IA sobre la importància d’adoptar principis ètics fonamentals en l’ús d’aquestes tecnologies per minimitzar-ne els riscos coneguts i desconeguts i maximitzar-ne les oportunitats; i d’altra, identificar accions per valoritzar, recomanar i avançar en l’ús ètic de les dades i sistemes d’IA.
En definitiva, el model PIO suposa un pas més per avançar en la integració de la teoria a la pràctica de principis ètics fonamentals de la IA i contribuir així a l’objectiu últim de construir una IA més transparent, més explicable, més justa, més segura, més responsable i més sostenible.
Autoavaluació i insígnia de qualitat
El model PIO es construeix al voltant de la senzillesa i d’una pregunta clau i efectiva que qualsevol persona que desenvolupa, gestiona o dirigeix un projecte on hi ha dades i sistemes d’IA pot entendre fàcilment: “Ho hem fet?” En aquest sentit, abans de dur a terme l’autoavaluació cal que l’organització esculli la persona o persones responsables d’aquest àmbit per realitzar l’autoavaluació amb la màxima informació disponible des d’un punt de vista competencial.
A partir d’aquí, el model permet autoavaluar-se en 7 eixos o principis relacionats amb l’ètica de les dades i dels sistemes d’IA, per obtenir una valoració per a cadascun d’ells i una “insígnia” amb el resultat: Transparència; Justícia i equitat; Seguretat i no maleficència; Responsabilitat i retiment de comptes; Privacitat; Autonomia; i Sostenibilitat.
Per fer-ho, el model recull les respostes binàries (Sí/No) de l’organització que du a terme l’autoavaluació a les 70 preguntes sobre cadascun dels 7 principis avaluats, n’obté les mètriques per a cadascun d’ells i genera una insígnia de qualitat per a l’organització. Aquesta insígnia serà la imatge gràfica del model d’autoavaluació PIO representant l’adequació de les dades i sistemes d’IA segons els 7 principis ètics del model. En aquest procés s’utilitza un gradient de color per representar d’una manera ràpida, senzilla i efectiva els resultats obtinguts.
El model PIO permet a qualsevol organització realitzar una autoavaluació ràpida de posició o bé una autoavaluació de posició completa, que en aquest cas requereix la justificació de les respostes afirmatives o negatives per permetre a l’OEIAC analitzar les respostes qualitatives i poder proporcionar retorn a l’organització que l’hagi realitzat si així ho desitja. D’aquesta manera, a més d’obtenir unes mètriques específiques i una insígnia de qualitat, les organitzacions que hagin fet l’autoavaluació completa rebran recomanacions específiques de millora.
El formulari d’autoavaluació, així com l’informe complet del model, estan disponibles des d’avui en aquest enllaç.
Sobre l’OEIAC
Catalunya compta des del juny de 2020 amb l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) per vetllar pel desenvolupament al país d’una intel·ligència artificial ètica, confiable i amb el benestar de les persones com a finalitat última. L’OEIAC és un organisme impulsat conjuntament pel Departament de la Vicepresidència de Polítiques Digitals i Territori en el marc de l’Estratègia d’Intel·ligència Artificial de Catalunya Catalonia.AI i la Universitat de Girona (UdG), d’acord amb el Pla estratègic UdG2030: la suma d’Intel·ligències.
L’objectiu de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya és estudiar en detall les conseqüències ètiques i legals i els riscos i oportunitats de la implantació de la IA en la nostra vida diària des d’un punt de vista transversal i vetllar perquè la tecnologia s’apliqui per millorar el benestar de les persones de manera segura, justa i respectant les normes socials i culturals.