En aquesta segona part de la nostra tertúlia sobre els perills de la intel·ligència artificial, aprofundirem en temes crítics com el colonialisme de dades i com la IA pot ser utilitzada tant per al bé com per a finalitats perjudicials. Analitzarem com les nostres dades, recollides diàriament, poden ser utilitzades per manipular, polaritzar i confrontar els usuaris, tot mentre les empreses comercien amb elles.
Objectius:
- Comprendre el colonialisme de dades: Explicarem què és i com afecta les comunitats menys privilegiades.
- Debatrem sobre com la recopilació i l’ús de dades per part de grans corporacions pot perpetuar desigualtats.
- Examinar exemples de manipulació: Analitzarem casos concrets on la IA ha estat utilitzada per manipular l’opinió pública i polaritzar la societat.
- Debatre sobre alternatives empoderadores: Explorarem solucions i alternatives que poden empoderar la comunitat, com la IA ètica, l’ús de dades obertes i tecnologies lliures.
Reflexionar sobre el futur: Debatrem sobre els perills de permetre que les màquines prenguin decisions que afecten els humans i com podem assegurar un futur on la IA sigui una aliada i no una amenaça.
Recordatori dels punts tractats al Hablemos anterior:
- IA privativa i dades: Les IA són privatives i es queden amb les teues dades.
- Dependència i pèrdua d’habilitats: Si ens acostumem al fet que la IA ens faça la feina;
- Serem dependents d’ella
- Perdrem habilitats.
- Poder tecnològic: Gastar una IA és com saber llegir; saber programar una IA és saber escriure (tenir el poder, ser creatiu, dominar la tecnologia i no que la tecnologia ens domine).
- Educació i llibertat: Si formem als educadors i a l’alumnat a gastar IA (o qualsevol programari) privatiu, no els estem ensenyant a ser lliures.
- Programari lliure: És important que creem IA de programari lliure. És important que els xiquets i les xiquetes cresquen sabent crear els seus propis programaris, lliures, of course 😉
Enllaç a Open Street Map de LAS NAVES Av.Joan Verdaguer, 16