ODS número 11: Ciutat i Comunitats sostenibles i ODS número 16: Pau, Justícia i Institucions sòlides

Malgrat l'aparença de neutralitat tècnica les decisions preses per la intel·ligència artificial poden estar condicionades per biaixos i per errors provocats pel disseny dels algoritmes

Tanmateix, com mostren els resultats d’aquest estudi, la intervenció humana tampoc no garanteix la correcció de les “desviacions” generades pels algoritmes. De fet, pot arribar a succeir que la modificació d’una decisió presa per un algoritme ben dissenyat condueixi a un resultat encara menys imparcial

Què ha de prevaler, doncs: l’humà o la màquina?






19/11/2025

Doncs ni una cosa ni l'altra.... Sortir d'aquest atzucac passa per l'establiment d'un sistema de "pesos i contrapesos": 1) assegurant un disseny òptim i transparent dels algoritmes, 2) establint procediments reforçats de revisió de les decisions de la IA (en el que l'anul·lació d'una decisió de la IA depengui d'un equip, no d'una sola persona) i 3) disposant de mecanismes de perfeccionament continu (amb l’anàlisi de les decisions de la IA anul·lades per confirmar l'adequació del criteri humà i modificar, si s'escau, el disseny de l'algoritme).

Tothom estarà d’acord que, tenint en compte el "negociat” de les administracions públiques, aprofitar al màxim la millora de l'eficiència i de la productivitat que permet la IA no pot anar en detriment de la qualitat i de l'objectivitat de les decisions que s'adopten. Això justifica la prudència amb la que les administracions públiques s'estan aproximant a la IA, la necessitat d’apostar per la hibridació entre les capacitats humanes i les de la IA, i l'adopció de mecanismes molt garantistes.