Explicabilitat i confiança, claus per escalar la IA

28 setembre 2023 | 11.45h a 12.45h

Per aconseguir una adopció a escala de les solucions basades en IA, cal construir una relació de confiança amb l’usuari. L’explicabilitat de la IA és un element clau en aquesta relació, ja que permet dilucidar les decisions que prenen els models i ofereix informació complementària de valor. Així mateix, és un element crucial per obtenir algoritmes auditables. ​

En aquesta sessió veurem els darrers desenvolupaments i exemples de tècniques que aprofundeixen en l’explicabilitat de la IA amb l’objectiu d’avançar cap a un ús fiable i cada cop menys opac.

 

Presenta:

  • Gemma Batlle, Business Development Manager, Eurecat

Participen:

  • Ricardo Moya, Technological Specialist in Artificial Intelligence & Big Data a Telefónica I+D

  • Karina Gibert, catedràtica, directora d’IDEAI i degana del COEINF

  • Joan Vidal, Director de Risk Analytics a CaixaBank

  • Javier Matamoros, Arquitecte d’IA a CaixaBank Tech

Ponents

RICARDO MOYA

Technological Specialist in Artificial Intelligence & Big Data a Telefónica I+D

Doctor en Ciències i Tecnologies de la Computació i enginyer Informàtic per la UPM, especialitzat en intel·ligència artificial. Actualment, treballa a Telefónica R+D com a Especialista tecnològic en IA i Big Data, dissenyant i liderant el desenvolupament de productes amb intel·ligència artificial. També exerceix tasques docents com a professor d’IA en Màsters i Graus Universitaris. Ha treballat com a investigador en projectes relacionats amb Sistemes de Recomanació i Deep & Machine Learning i ha exercit com a director de Projecte a DEVO, liderant projectes de Big Data en temps real. És cofundador de l’associació professional d’intel·ligència artificial “AI-Network” i cofundador de la web jarroba.com on publica contingut tècnic sobre IA i Informàtica.

Mètodes d'explicabilitat local basada en dades amb XAIoGraphs

L’octubre del 2018 Telefónica va publicar els seus 5 principis d’IA, un dels quals és la “transparència i explicabilitat”, garantint que les decisions preses per la IA han d’oferir un nivell de comprensió i explicabilitat adequat. Els esforços per aconseguir una IA explicable han portat els equips d’R+D de Telefónica a proposar nous mètodes d’explicabilitat i interpretabilitat que s’ajustin a les seves necessitats de negoci; un d’aquests mètodes és LIDE (Local Interpretable Data Explanations) capaç de calcular les explicacions basant-se únicament en les dades. Aquest mètode ha estat implementat a XAIoGraphs, una eina Open Source que s’exposarà a la ponència.

KARINA GIBERT

Catedràtica, directora d’IDEAI i degana del COEINF

Catedràtica de la Universitat Politècnica de Catalunya-BarcelonaTech (UPC).  Llicenciada i doctora en Enginyeria Informàtica amb especialitats en Estadística Computacional i Intel·ligència Artificial. Postgrau en Docència Universitària. Membre de l’equip de treball governamental Catalonia.AI (oct 2018-) i membre del grup d’experts que escriuen el Pla estratègic d’IA de Catalunya (Gencat, aprovat el 28/2/2020). Degana del Col·legi Oficial d’Enginyeria Informàtica de Catalunya (COEINF) i ex vicedegana de Big Data, Ciència de Dades i Intel·ligència Artificial (2017-2020-). Secretària i cofundadora del centre de recerca en Ciència intel·ligent de dades i Intel·ligència Artificial (IDEAI) (cot 2017-). Fundadora de la Comissió dones COEINF per a l’escletxa de gènere en Enginyeria Informàtica (maig 2018-), membre de la comissió de gènere de la Intercol.legial (2019-) i altres comissions de gènere. Membre electe de la junta directiva de l’Intl Environmental Modeling and Software Society (iEMSs, a partir de juliol de 2016). Assessora del High Level Expert Group d’Intel·ligència Artificial de la Comissió Europea (setembre de 2019-) en temes d’ètica de la Intel·ligència Artificial i del Senat Espanyol.

Explicabilitat o la inserció de la dada als processos de decisió

JOAN VIDAL

Director de Risk Analytics a CaixaBank

Joan Vidal és llicenciat en matemàtiques a la Universitat de Barcelona, postgraduat en matemàtiques financeres per la UPC i MBA per l’Institut d’Empresa. Després d’uns anys de docència a la Facultat de Matemàtiques de la Universitat de Barcelona, va iniciar la seva trajectòria de +20 anys al sector financer (principalment Santander i CaixaBank), sempre vinculat als aspectes de modelització de riscos. Actualment és director de Risk Analytics a CaixaBank, on, entre altres coses, ha liderat la transició al desenvolupament i l’ús de models de machine learning per als processos de gestió del risc de crèdit.

JAVIER MATAMOROS

Arquitecte d’IA a CaixaBank Tech

Javier Matamoros Morcillo, PhD (Sabadell, 1982). Javier és enginyer de telecomunicacions per la UPC (2005) i Doctor en processament de senyals per la UPC (2010 – Cum Laude). Abans d’unir-se al grup CaixaBank va treballar com a investigador durant +10 anys al CTTC (Centre Tecnològic de Telecomunicacions de Catalunya). Durant aquest període va fer nombrosos treballs de recerca sobre optimització distribuïda, estimació distribuïda i teoria de la informació aplicada a diferents verticals (IoT, comunicacions, ML i Smart Grids). A més, va dirigir 3 Tesis doctorals i va participar en diversos projectes de recerca nacionals i europeus amb diferents rols (Researcher i Principal researcher). Durant aquest temps va publicar diversos articles de recerca a revistes i congressos d’alt impacte (+50, h-índex 15). El 2017 es va unir a l’equip de Cognitive de CaixaBank per donar solucions transversals d’IA al grup. El 2020, Javier es va unir a CaixaBank Tech, on el seu rol és d’Arquitecte d’IA i technical lead. Durant aquest temps ha participat en el disseny i desenvolupament de solucions d’avantguarda d’IA amb alt impacte a l’organització.

Integrant la IA a CaixaBank: Transparència, eficiència i innovació

CaixaBank, sempre pionera en l’ús de les noves tecnologies, impulsa amb força l’ús de la IA en diferents verticals dins de l’organització. En aquesta sessió explicarem diverses aplicacions i reptes, des de models amb alta exigència per part del regulador, com ara els models de rating, fins a l’ús de la IA en aplicacions transversals.

En primer lloc, repassarem els reptes principals que s’han abordat i superat per l’equip de modelització de riscos. Aquests reptes comporten, des dels aspectes relacionats amb les metodologies de modelització, fins als elements essencials per aconseguir la confiança dels usuaris i del regulador. Entre ells, hi ha l’explicabilitat, la fairness i la governança, que ara formen part de l’hype sobre AI Ethics i regulacions potencials a la intel·ligència artificial.

Continuarem la sessió amb unes pinzellades sobre l’ús de la IA a l’organització de forma transversal. En aquesta línia, el CoE IA de CaixaBank Tech explicarà diferents aplicacions dins de lorganització. Començarem amb l’ús de tècniques computer vision i NLP per a l’automatització de la gestió documental. Finalment, explorarem els potencials usos d’algorismes fundacionals/LLM dins la nostra organització.

Presenta

GEMMA BATLLE

Business Development Manager, Eurecat

Gemma Batlle, cap desenvolupament de negoci TIC i sector públic a Eurecat(Centre Tecnologico de Catalunya). Enginyera superior de Telecomunicacions de la Salle, MBA per BES La Salle, Universitat Ramon Llull, de Barcelona i Postgrau d’automatització i control d’edificis per BES La Salle. Membre junta directiva Clúster Digital De Catalunya en Eurecat és responsable del sector TIC, i AAPP. Els seus esforços actuals es dirigeixen cap a l’establiment de patrons de col·laboració i negoci entre empreses de base tecnològica per promoure i crear idees i projectes innovadors per al sector TIC. Prèviament ha treballat com a cap de desenvolupament de negoci de La Salle Parc d’Innovació, responsable d’identificar les diferents àrees del coneixement i la innovació per prosseguir la col·laboració entre les empreses. Anteriorment, va treballar com a coordinadora de l’Àrea d’Innovació Tecnològica en Edificació, a La Salle URL divisió de Transferència de Tecnologia.