Saltar al contenido

Asociación GNU/Linux València Entradas

Esmorzar lliure: Diumenge 22 Setembre 2024, 10 h.

Almuerzo libre
CC-BY-SA

Esmorzar a València! 🎉

El pròxim diumenge 22 de setembre, ens trobarem a les 10h a l’Estació del Nord de València per fer una bona quedada entre amants del software lliure! Buscarem un lloc per esmorzar, fer-nos amics i xarrar una estona sobre el que més ens apassiona: el software lliure!

No importa si ets un expert o si tot just estàs començant, vine a passar una estona agradable amb gent amb les mateixes inquietuds. 😉

Ens veiem allí! No t’ho perdes!

📅 Dia: 22 de setembre de 2024
⏰ Hora: 10:00h
📍 Lloc: Estació del Nord, València


¡Almuerzo en Valencia! 🎉

El próximo domingo 22 de septiembre, nos veremos a las 10h en la Estación del Norte de Valencia para disfrutar de un encuentro entre amantes del software libre. 🚀 Buscaremos algún lugar para almorzar, hacer amigos y hablar sobre lo que más nos apasiona: ¡el software libre!

No importa si eres experto o si apenas estás empezando, ven a pasar un buen rato con gente que comparte tus mismas inquietudes. 😉

¡Nos vemos allí! ¡No faltes!

📅 Día: 22 de septiembre de 2024
⏰ Hora: 10:00h
📍 Lugar: Estación del Norte, Valencia

Enllaç a Open Street Map de Estació del Nord, València

Dejar un comentario

Crònica del «Hablemos: els perills de les IA», segona part (2024-07-26)

(Lectura disponible en español aquí)

No, aquest no és un article duplicat de la xerrada de «Hablemos» anterior. Resulta que, l’experiència havia estat massa interessant per al temps tan curt que vam tindre… i vam decidir que calia finiquitar alguns punts d’interès en un últim debat sobre temes que potser no es van poder tocar en el «Hablemos» anterior.

Per cert, estàs cansat de la llanda negativa que li estem donant a la IA? Al final de l’article et porte bones notícies que t’interessaran.

Si ja en la xerrada anterior que era a finals de juny feia calor… imagineu-vos com de sufocants eren els carrers valencians aquest divendres 26 de juliol de 2024. Jo en particular, vaig acabar la faena cap a les 15:30 i em vaig dirigir directament a València, on vaig menjar alguna cosa lleugera (haviem fet el clàssic «esmorzar» valencià dels divendres) i no vaig poder evitar dirigir-me directament a les meravelloses i condicionades sales de Las Naves, encara que encara faltaren 2 hores per a l’inici de la xerrada.

Quina alegria em va donar trobar-me a Alex i Pasqual fent una petita assistència a una usuària de Linux Mint que estava tenint problemilles amb el seu ordinador portàtil. La màgia de Pasqual va fer que els suposats problemes desaparegueren sense tan sols haver-los pogut visualitzar. Tant de bo tots els problemes es resolgueren així…

Una boníssima notícia

Aquesta era la segona vegada que anava jo a un «Hablemos». Jo pensant que sent finals de juliol seríem 2 o 3… i resulta que va aparéixer encara més gent que en la xerrada anterior! Des d’ací, moltes gràcies a tots els assistents.

Imagen de la charla del "Hablemos" en la Sala Polivalent de Las Naves

Es notava i es percebia un molt bon rotllo. Fa gust rodejar-se i discutir amb gent així de guai.

Colonialisme de dades

Personalment, em van paréixer molt interessants els punts a tractar que havia deixat Alex preparats en la convocatòria, i no vaig poder evitar arrancar la conversa amb el primer d’aquests: el colonialisme de dades i com afecta les comunitats menys privilegiades. Ací hi va haver una primera discussió respecte al significat aplicat del colonialisme a la intel·ligència artificial.

D’una banda es va proposar la postura d’alguna cosa que ja vam tocar lleugerament en el «Hablemos» anterior, un concepte que entenia el terme com la necessitat insaciable d’aquestes companyies d’obtindre dades i informació de totes parts d’Internet (i probablement de fora), fins i tot sense considerar les lleis que protegien els drets de molts d’aquests continguts.

I és veritat, que aquesta és una cara molt interessant i inquietant de les intel·ligències artificials. És sa que Google recopile tots els teus correus electrònics i missatges? Que Facebook alimente la seua IA amb les teues converses privades d’Instagram? Que Amazon faça vés-a-saber-què amb totes les dades que recopila des d’AWS…? No seria la primera vegada que veiem aquestes IAs filtrar informació privada de persones específiques; i és que penja d’un fil que aquestes xarxes neuronals tinguen un «glitch» i la facen grossa. La complexitat d’aquestes és tal que literalment escapa a les nostres capacitats de comprensió.

Tanmateix, crec que la paraula «colonialisme», i especialment al prendre-la en context amb «les comunitats menys privilegiades», semblava ser un concepte que anava fins i tot més enllà d’una necessitat «imperialista» de l’apropiació de dades.

Comunitats privilegiades i desigualtats

El «colonialisme de dades» també podia ser entès com una imposició, des d’una posició privilegiada, d’unes IA que inevitablement serien molt més capaces de generar informació rellevant cap a les comunitats que més dades tenen penjades a Internet. En resum: les societats blanques occidentals del primer món que parlen anglès.

Hem de tindre en compte, que encara que les IA han estat entrenades amb informació de tot tipus… clarament Internet està esbiaixatsesgado» en espanyol) cap a uns temes específics on hi ha molt més contingut que altres, i les IA no deixen de ser eines que, de manera extremadament simplificada, fan una «regressió a la mitjana», i escriuran la següent paraula estadísticament més probable.

Un exemple claríssim és com les IA són capaces de generar cossos nus de dones de manera molt més ràpida i convincent que d’hòmens; o com els chatbots funcionen molt millor parlant en anglès que en català.

Si comencem a aprofundir una mica més, també veurem com les IA comencen a al·lucinar (generar informació falsa) de manera molt més senzilla quan se li pregunta sobre temes de nínxolnicho» en espanyol), o sobre minories socials, com podria ser alguna comunitat del Congo comparat amb la ciutat de Madrid. La perillositat en aquests biaixossesgos» en espanyol) comença a ser clau quan posem damunt de la taula situacions que ja s’estan donant.

Us pose un parell d’exemples evidents:

  • hi ha més persones negres tancades a presons als EE.UU. que les que els correspondria per ràtio de població;
  • hi ha més hòmens que dones en càrrecs alts en companyies arreu del planeta.

Crec que podem estar tots d’acord en què la correlació no implica causalitat. Tanmateix, aquestes dades poden fer que una xarxa neuronal complexíssima com les de les IA modernes establisca una relació entre el color de la pell i la criminalitat, quan tots sabem que no és just ni humà posar-li «punts de criminal» a un imputat pel seu simple to de pell.

Imagina descartar un perfil d’una dona per a un lloc de treball perquè la IA en el seu entrenament va formar una relació causal entre el sexe i el càrrec. Això no és cap broma, i podem veure molts casos diferents on la IA està causant problemes; us deixe alguns exemples ací:

Enllaçant amb el «Hablemos» anterior, queda evident que cedir el poder a algoritmes d’IA té els seus claríssims problemes, i és extremadament important entendre que no poden ser fonts de veritat, ni jutges, ni botxinsverdugos» en espanyol). Es tracta d’una tecnologia que hui en dia és, en paraules de Richard Stallman, un «bullshit generator«.

I call it a «bullshit generator» because it generates output «with indifference to the truth».

Manipulació: no estem preparats

Si has d’aprendre una cosa sobre els perills de la IA és la següent: no serem capaços de distingir-la de la realitat. I hem d’afrontar-ho. Tanmateix, no vinc tant a parlar-te de com la IA es pot usar per generar desinformació, perquè quasi tota invenció es pot usar per al mal: Internet, la televisió… vaja, fins i tot la impremta ha estat utilitzada per manipular l’opinió pública.

Un dels últims punts que vam veure en aquest «Hablemos» va ser com moltes d’aquestes IA a Internet tenen un «prompt» inicial. Què és això del prompt inicial? Veus, les IA generatives llancen tot tipus d’informació en base a tot allò que hagen recopilat. Per exemple, en principi, GPT4 seria capaç d’escriure un text completament racista i ple d’insults cap a un personatge públic. Ara bé, si li demanes això a ChatGPT, probablement no et deixarà fer-ho. Per què?

Resulta que aquestes macroempreses no només són capaces d’introduir biaixos amb la informació amb la qual entrenen les seues IA; sinó també perquè, després d’entrenar-la, estableixen una sèrie de regles a aquesta IA perquè parle de certs temes, censure altres, etc. El que em resulta particularment graciós és que no ho poden fer d’una altra manera que no siga escrivint-li. Imagina’t com de còmic resulta, crear un monstre tan gran, i l’única manera de controlar-lo és «demanar-li-ho» literalment escrivint-li una carta inicial, un «prompt» inicial, perquè no parle de determinats temes, que intente oferir una visió X, Y o Z…

Aquest prompt, per descomptat, no és públic en moltíssims casos, com és el d’OpenAI. Si vas estar viu fa un any segurament t’hauràs assabentat de totes les maneres que la gent anava descobrint per «desbloquejar» a ChatGPT; per exemple, dient-li que és un joc, establint un sistema de «monedes», o en alguns casos fins i tot senzillament dient que «és per a un treball científic», i molts altres missatges que feien que ChatGPT et poguera contar com robar un banc amb tot luxe de detalls, fins que la gent d’OpenAI trobava la manera de «parxejar» això.

Doncs aquest prompt inicial no és més que un altre mecanisme de manipulació, dissenyat completament per una persona específica, perquè la IA genere resultats que es troben dins d’allò que l’empresa que hi ha darrere establisca com acceptable.

Es va comentar en la reunió alguns casos molt curiosos, fins i tot on aquest prompt inicial intentava compensar els biaixos que vèiem en la secció anterior, donant resultats completament còmics, com la IA de Google generant imatges de soldats nazis «de color» perquè el prompt inicial demanava a la IA a no generar sempre persones blanques (ja que la majoria de fotos d’entrenament són de gent blanca).

No tot és dolent en el camp de la IA

En acabar la reunió, es notava ja certa necessitat d’eixir del cercle viciós de les notícies i perills de la IA. Acabàrem amb una nota positiva, on cadascú va poder donar una pinzellada sobre el que li il·lusiona d’allò que està per vindre (o ja està ací) en aquest nou camp.

No et vaig a embolicar amb exemples, ja que és bastant probable que fem un pròxim «Hablemos» on vegem que efectivament no tot és horrible en el món de la IA, sinó que també es tracta d’una tecnologia que obri la porta a oportunitats noves, a guanyar capacitats que mai pensàvem que podríem aconseguir; i que per descomptat, existeixen intel·ligències artificials lliures i accessibles, que seran el primer pas per aconseguir que la societat no caiga de nou en les urpes del màrqueting i la manipulació.


Si t’il·lusiona alguna cosa en el futur de la IA, apunta-te-la! I vine a contar-ho en el següent «Hablemos». Si no t’il·lusiona res… vine al «Hablemos», perquè probablement eixiràs d’allí amb unes quantes idees interessants. Jo mateix tinc clar algun altre projecte que em fascina i que crec que us pot interessar moltíssim.

Fins una altra!


Aquí tienes disponible la lectura en español:

Lectura en español

Crónica del «Hablemos: els perills de les IA», segunda parte (2024-07-26)

No, este no es un artículo duplicado de la charla de «Hablemos» anterior. Resulta que, la experiencia había sido demasiado interesante para el tiempo tan corto que tuvimos… y decidimos que había que finiquitar algunos puntos de interés en un último debate sobre temas que quizás no se pudieron tocar en el «Hablemos» anterior.

Por cierto, ¿estás cansado de la chapa negativa que le estamos metiendo a la IA? Al final del artículo te traigo buenas noticias que te interesarán.

Si ya en la charla anterior que era a finales de junio hacía calor… imaginaos lo sofocantes que eran las calles valencianas este viernes 26 de julio de 2024. Yo en particular, terminé el trabajo sobre las 15:30 y me dirigí directamente a Valencia, donde comí algo ligerito (habíamos hecho el clásico «esmorzar» valenciano de los viernes) y no pude evitar dirigirme directamente a las maravillosas y acondicionadas salas de Las Naves, aunque aún faltaran 2 horas para el inicio de la charla.

Qué alegría me dió encontrarme a Alex y Pasqual haciendo una pequeña asistencia a una usuaria de Linux Mint que estaba teniendo problemillas con su ordenador porátil. La magia de Pasqual hizo que los supuestos problemas desaparecieran sin tan siquiera haberlos podido visualizar. Ojalá que todos los problemas se resuelvan así…

Una buenísima noticia

Esta era la segunda vez que acudía yo a un «Hablemos». Yo pensando que al ser finales de julio seríamos 2 o 3… ¡y resulta que apareció aún más gente que en la anterior charla! Desde aquí, muchísimas gracias a todos los asistentes.

Se notaba y percibía un muy buen rollo. Da gusto rodearse y discutir con gente así de guay.

Colonialismo de datos

Personalmente, me parecieron muy interesantes los puntos a tratar que había dejado Alex preparados en la convocatoria, y no pude evitar arrancar la conversación con el primero de estos: el colonialismo de datos y cómo afecta a las comunidades menos privilegiadas. Aquí hubo una primera discusión respecto al significado aplicado de colonialismo a la inteligencia artificial.

Por un lado se propuso la postura de algo que ya tocamos ligeramente en el «Hablemos» anterior, un concepto que entendía el término como la necesidad insaciable de estas compañías de obtener datos e información de todas partes de Internet (y probablemente de fuera), incluso sin considerar las leyes que protegían los derechos de muchos de estos contenidos.

Y es verdad, que esta es una cara muy interesante e inquietante de las inteligencias artificiales. ¿Es sano que Google recopile todos tus emails y mensajes, que Facebook alimente su IA con tus conversaciones privadas de Instagram, que Amazon haga vete-a-saber-qué con todos los datos que recopila desde AWS…? No sería la primera vez que vemos a estas IAs filtrar información privada de personas específicas; y es que pende de un hilo el que estas redes neuronales tengan un «glitch» y la líen pardísima. La complejidad de éstas es tal que literalmente escapa a nuestras capacidades de comprensión.

Sin embargo, creo que la palabra «colonialismo», y especialmente al tomarla en contexto con «las comunidades menos privilegiadas», parecía ser un concepto que iba incluso más allá de una necesidad «imperialista» de la apropiación de datos.

Comunidades privilegiadas y desigualdades

El «colonialismo de datos» también podía ser entendido como una imposición, desde una posición privilegiada, de unas IA que inevitablemente iban a ser mucho más capaces de generar información relevante hacia las comunidades que más datos tienen colgados en Internet. En resumidas cuentas: las sociedades blancas occidentales del primer mundo que hablen inglés.

Tenemos que tener en cuenta, que aunque las IA han sido entrenadas con información de todo tipo… claramente Internet está sesgado hacia unos temas específicos donde hay mucho más contenido que otros, y las IA no dejan de ser herramientas que, de manera extremadamente simplificada, hacen una «regresión a la media», y van a escribir la siguiente palabra estadísticamente más probable.

Un ejemplo clarísimo es como las IA son capaces de generar cuerpos desnudos de mujeres de forma mucho más rápida y convincente que de hombres; o cómo los chatbots funcionan mucho mejor hablando en inglés que en catalán.

Si empezamos a ahondar un poco más, también veremos como las IA empiezan a alucinar (generar información falsa) de forma mucho más sencilla cuando se le pregunta sobre temas de nicho, o sobre minorias sociales, como podría ser alguna comunidad del Congo comparado con la ciudad de Madrid. La peligrosidad en estos sesgos empieza a ser clave cuando ponemos sobre la mesa situaciones que ya se están dando.

Os pongo un par de ejemplos evidentes:

  • hay más personas negras encerradas en cárceles estadounidenses que las que les corresponderia por ratio de población;
  • hay más hombres que mujeres en puestos altos en compañías a lo largo y ancho del planeta.

Creo que podemos estar todos de acuerdo en que la correlación no implica causalidad. Sin embargo, estos datos pueden hacer que una red neuronal complejísima como las de las IA modernas establezca una relación entre el color de la piel y la criminalidad, cuando todos sabemos que no es justo ni humano ponerle «puntos de criminal» a un imputado por su simple tono de piel.

Imagina descartar un perfil de una mujer para un puesto de trabajo porque la IA en su entrenamiento formó una relación causal entre el sexo y el cargo. Esto no es ninguna broma, y podemos ver muchos casos diferentes donde la IA está causando problemas; os dejo algunos ejemplos aquí:

Enlazando con el «Hablemos» anterior, queda evidente que ceder el poder a algoritmos de IA tiene sus clarísimos problemas, y es extremadamente importante entender que no pueden ser fuentes de verdad, ni jueces, ni verdugos. Se trata de una tecnología que a día de hoy es, en palabras de Richard Stallman, un «bullshit generator«.

I call it a «bullshit generator» because it generates output «with indifference to the truth».

Manipulación: no estamos preparados

Si debes aprender una cosa sobre los peligros de la IA es la siguiente: no vamos a poder distinguirla de la realidad. Y debemos afrontarlo. Sin embargo, no vengo tanto a hablarte de cómo la IA se puede usar para generar desinformación, porque casi toda invención se puede usar para el mal: Internet, la televisión… vaya, hasta la imprenta ha sido utilizada para manipular la opinión pública.

Uno de los últimos puntos que vimos en este «Hablemos» fue cómo muchas de estas IA en Internet tienen un «prompt» inicial. ¿Qué es esto del prompt inicial? Verás, las IA generativas escupen todo tipo de información en base a todo aquello que hayan recopilado. Por ejemplo, en principio, GPT4 sería capaz de escribir un texto completamente racista y lleno de insultos hacia un personaje público. Ahora bien, si le pides eso a ChatGPT, probablemente no te dejará hacerlo. ¿Por qué?

Resulta que estas macroempresas no solo son capaces de introducir sesgos con la información con la que entrenan a sus IA; sino también porque, tras entrenarla, establecen una serie de reglas a esta IA para que hable de ciertas cosas, censure otras, etc. Lo que me resulta particularmente gracioso es que no lo pueden hacer de otra manera que no sea escribiéndole. Imagínate lo cómico que resulta, crear un monstruo tan grande, y la única manera de controlarlo es «pedirle» literalmente escribiéndole una carta inicial, un «prompt» inicial, para que no hable de determinados temas, que intente ofrecer una visión X, Y o Z…

Este prompt, por supuesto, no es público en muchísimos casos, como es el de OpenAI. Si estuviste vivo hace un año seguramente te habrás enterado de todas las maneras que la gente iba descubriendo para «desbloquear» a ChatGPT; por ejemplo, diciendole que es un juego, estableciendo un sistema de «monedas», o en algunos casos incluso sencillamente diciendo que «es para un trabajo científico», y muchas otros mensajes que hacían que ChatGPT te pudiera contar cómo robar un banco con todo lujo de detalles, hasta que la gente de OpenAI encontraba la manera de «parchear» eso.

Pues este prompt inicial no es más que otro mecanismo de manipulación, diseñado completamente por una persona específica, para que la IA genere resultados que se encuentren dentro de aquello que la empresa que hay detrás establezca como aceptable.

Se comentó en la reunión de casos muy curiosos incluso donde este prompt inicial intentaba compensar los sesgos que veiamos en la sección anterior, dando resultados completamente cómicos, como la IA de Google generando imágenes de soldados nazis «de color» porque el prompt inicial demandaba a la IA a no generar siempre personas blancas (ya que la mayoría de fotos de entrenamiento son de gente blanca).

No todo es malo en el campo de la IA

Al acabar la reunión, se notaba ya cierta necesidad de salir del círculo vicioso de las noticias y peligros de la IA. Acabamos con una nota positiva, donde cada uno pudo dar una pincelada sobre lo que le ilusiona de lo que está por venir (o ya está aquí) en este nuevo campo.

No te voy a liar con ejemplos, puesto que es bastante probable que hagamos un próximo «Hablemos» donde veamos que efectivamente no todo es horrible en el mundo de la IA, sino que también se trata de una tecnología que abre la puerta a oportunidades nuevas, a ganar capacidades que jamás pensábamos que podríamos alcanzar; y que por supuesto, existen inteligencias artificiales libres y accesibles, que serán el primer paso para conseguir que la sociedad no caiga de nuevo en las zarpas del marketing y la manipulación.


Si te ilusiona algo en el futuro de la IA, ¡apúntatelo! Y ven a contarlo en el siguiente «Hablemos». Si no te ilusiona nada… ven al «Hablemos», porque probablemente saldrás de ahí con unas cuantas ideas interesantes. Yo mismo tengo claro algún que otro proyecto que me fascina y que creo que os puede interesar muchísimo.

¡Hasta otra!

Dejar un comentario

Crónica del «Hablemos: els perills de les IA» (2024-06-28)

(Lectura en español disponible al final)

Feia ja calor la vesprada del divendres 28 de juny de 2024, però això no va evitar la reunió mensual del «Hablemos» en les fresques i belles sales de Las Naves, a València, per a discutir i conèixer les diferents problemàtiques que han aparegut especialment aquest últim any amb l’aparició de productes com ChatGPT, Gemini, Dall-E, etc.

El tema estava molt obert, ja que són nombrosos i variats els diferents perills als quals ens enfrontem davant una tecnologia d’aquest calibre. Ací pots llegir la convocatòria.

Intel·ligència privativa, apropiació i venda de dades

Com no podia ser menys, entre els assistents era bastant conegut d’antuvi el problema de la utilització d’eines de programari privatiu, i no anava a ser menys amb la intel·ligència artificial, especialment quan es tracta d’un servei en el «cloud»; o com diu la FSFE, «someone else’s computer».

Va quedar evidenciat, a més, que en aquest cas corríem un perill encara major ja que aquestes empreses, com OpenAI (un nom sens dubte controvertit), basen el seu treball en el literal consum massiu de dades (i d’energia) i en el seu processament i categorització exhaustius.

També es va comentar breument que no sols aquestes empreses utilitzen models privatius d’intel·ligència artificial, sinó que a més les seues fonts d’informació (aquelles que serveixen per a entrenar els models) tampoc queden gens clares.

El cas més sonat és el de Meta utilitzant llibres piratejats per a alimentar el seu monstre d’intel·ligència, la qual cosa toca la qüestió d’allò que a alguns us sonarà, la «cultura lliure«, i és que estem veient com aquestes macroempreses tenen la llibertat de jugar amb els drets d’autor a la seua conveniència i traure benefici econòmic d’això, mentre que el ciutadà mitjà és criminalitzat per consumir cultura de forma lliure.

Aquest últim punt ens hauria de fer veure també un altre exemple més que, per molt que l’empresa diga el que diu en els seus termes d’ús i privacitat… després faran el que els convinga en el moment que els interesse.

Dependència i poder

Eixint-nos un poc del món del programari i cultura lliure, es va comentar amb bastant profunditat el tema dels efectes socials que pot tindre una eina com aquesta, que podria causar un efecte de «dependència» en la societat.

Tota nova tecnologia, aplicada malament, tindrà efectes negatius. D’ací que es destacara la importància de la ciutadania en no adormir-se, no deixar-se portar per la tecnologia i el seu màrqueting, i que aquesta servisca per a portar més lluny aquells projectes i somnis, en compte de substituir-los per uns altres.

Si no som capaços d’aplicar positivament aquesta tecnologia, ens tornarem dependents d’aquesta, i com hem dit en el tema anterior… li estarem donant el control (almenys hui en dia) a multinacionals sobre allò que pensem, escrivim, o creem.

Va sonar aquella vesprada una frase profunda, i encara que puga paréixer contradictòria, no ho és en absolut: «per a aprendre de veritat a llegir, has de saber escriure». És a dir, per a assegurar-te que una eina com la IA no t’està sotmetent, has de conéixer-la primer, entendre com funciona, els seus avantatges, i en particular les seues limitacions. Hem de tindre el control, o ser perfectament conscients de a qui li’l cedim i en quina mesura.

Educació i llibertat

Amb un professor en la xarrada, era evident que anàvem a entrar en el tema de l’educació. Quina altra eina per a evitar la dependència i recuperar el poder?

Es van exposar exemples de com ja s’estan donant cursets ràpids a professors on se’ls ensenya a compartir informació privada dels alumnes amb «chatbots» privatius per a, suposadament, ajudar-los en el seu treball; sense tindre cap consciència absoluta de cap dels punts que hem comentat prèviament. Com si aquestes macroempreses estigueren oferint els seus serveis gratuïts per amor a l’art, com un regal diví.

Va quedar claríssim, i per unanimitat, que el món de l’educació és una peça clau en la conscienciació del futur de la humanitat sobre el poder de les tecnologies, i com l’educació en tecnologies lliures (també IA lliure, que n’hi ha) és de les poques maneres que tenim per a aconseguir entre tots una societat més lliure, segura i sense biaixos.

La intromissió de Google amb els seus Chromebooks i els seus Workspaces en els col·legis, o l’ús parasitari de llicències de Windows i Microsoft Office en els centres escolars és un clar atac a la llibertat dels estudiants, especialment sabent que existeixen eines lliures igual de capaces, o fins i tot més, senzillament perquè eres lliure d’estudiar-les, millorar-les, adaptar-les, usar-les, compartir-les…

És importantíssim, per tant, recolzar projectes com LliureX en la Comunitat Valenciana, on a més vam saber de primera mà que estan treballant en crear i oferir serveis d’IA lliures per a tots aquells col·legis interessats en la comunitat.


Des d’ací enviem una gran salutació a tots aquells professors i divulgadors que coneixen i divulguen el programari lliure, així com tot el nostre suport al projecte LliureX, al qual seguirem molt de prop en aquesta aventura de la intel·ligència artificial. Sou molt importants. La batalla continua.

¿Vols participar en un «Hablemos»? No necessitem que sàpigues del tema, ni que portes res preparat. Es tracta d’un petit esdeveniment per xarrar informalment i crear vincles en la comunitat. Fem un d’aquests l’últim divendres de cada mes. No t’ho perdes!


Aquí puedes leer el mismo texto en español:

Lectura en español

Crónica del «Hablemos: los peligros de las IA» (2024-06-28)

Hacía ya calor la tarde del viernes 28 de junio de 2024, pero eso no consiguió evitar la reunión mensual del «Hablemos de…» en las frescas y bellas salas de Las Naves, en València, a discutir y conocer sobre las distintas problemáticas que han aparecido en especial este último año con el surgimiento de productos como ChatGPT, Gemini, Dall-E, etc.

El tema estaba bastante abierto, ya que son numerosos y variados los distintos peligros a los que nos enfrentamos ante una tecnología de este calibre. Aquí puedes leer la convocatoria.

Inteligencia privativa, apropiación y venta de datos

Como no podía ser menos, entre los asistentes era bastante conocido de antemano el problema de la utilización de herramientas de software privativas, y no iba a ser menos con la inteligencia artificial, especialmente cuando se trata de un servicio en el «cloud»; o como dice la FSFE, «someone else’s computer».

Quedó evidenciado, además, que en este caso corríamos un peligro aún mayor ya que estas empresas, como OpenAI (un nombre sin duda controvertido), basan su trabajo en el literal consumo masivo de datos (y de energía) y en su procesamiento y categorización exhaustivas.

También se comentó brevemente que no solo estas empresas utilizan modelos privativos de inteligencia artificial, sino que además sus fuentes de información (aquellas que sirven para entrenar los modelos) tampoco quedan nada claras.

El caso más sonado es el de Meta utilizando libros pirateados para alimentar a su monstruo de inteligencia, lo que toca el palo de aquello que a algunos os sonará, la «cultura libre», y es que estamos viendo como estas macroempresas tienen la libertad de jugar con los derechos de autor a su gusto y sacar beneficio económico de ello, mientras que el ciudadano medio es criminalizado por consumir cultura de forma libre.

Este último punto nos debería hacer ver también otro ejemplo más de que, por mucho que la empresa diga lo que dice en sus términos de uso y privacidad… luego harán lo que les convenga en el momento que les interese.

Dependencia y poder

Saliéndonos un poco del mundo del software y cultura libre, se comentó con bastante profundidad el tema de los efectos sociales que puede tener una herramienta como esta, que podría causar un efecto «dependencia» en la sociedad.

Toda nueva tecnología, aplicada mal, tendrá efectos negativos. De ahí que se destacó la importancia de la ciudadanía en no dormirse, no dejarse llevar por la tecnología y su marketing, y que esta sirva para llevar más lejos aquellos proyectos y sueños, en vez de sustituirlos por otros.

Si no somos capaces de aplicar positivamente esta tecnología, nos volveremos dependientes de ésta, y como hemos dicho en el tema anterior… le estaremos dando control (al menos hoy en día) a multinacionales sobre aquello que pensamos, escribimos, o creamos.

Sonó esa tarde una frase profunda, y aunque pueda parecer contradictoria, no lo es en absoluto: «para aprender de verdad a leer, debes saber escribir». Es decir, para asegurarte que una herramienta como la IA no te está sometiendo, debes primero conocerla, entender cómo funciona, sus ventajas, y en particular sus limitaciones. Debemos tener el control, o ser perfectamente conscientes de a quién se lo cedemos y en qué medida.

Educación y libertad

Con un profesor en la charla, era evidente que íbamos a entrar en el tema de la educación. ¿Qué otra herramienta para evitar la dependencia y recuperar el poder?

Se expusieron ejemplos de cómo ya se están dando cursillos rápidos a profesores donde se les enseña a compartir información privada de los alumnos con «chatbots» privativos para, supuestamente, ayudarles en su trabajo; sin tener ninguna absoluta conciencia de ninguno de los puntos que hemos comentado previamente. Como si estas macroempresas estuvieran ofreciendo sus servicios gratuitos por amor al arte, como un regalo divino.

Quedó clarísimo, y por unanimidad, que el mundo de la educación es una pieza clave en la concienciación al futuro de la humanidad sobre el poder de las tecnologías, y cómo la educación en tecnologías libres (también IA libre, que hay) es de las pocas maneras que tenemos para alcanzar entre todos una sociedad más libre, segura y sin sesgos.

La intromisión de Google con sus Chromebooks y sus Workspaces en los colegios, o el parasitario uso de licencias de Windows y Microsoft Office en los centros escolares es un claro ataque a la libertad de los estudiantes, especialmente sabiendo que existen herramientas libres igual de capaces, o incluso más, sencillamente porque eres libre de estudiarlas, mejorarlas, adaptarlas, usarlas, compartirlas…

Es importantísimo, por lo tanto, apoyar proyectos como LliureX en la Comunitat Valenciana, donde además supimos de primera mano que están trabajando en crear y ofrecer servicios de IA libres para todos aquellos colegios interesados en la comunidad.


Desde aquí mandamos un gran saludo a todos aquellos profesores y divulgadores que conocen y divulgan el software libre, así como todo nuestro apoyo al proyecto LliureX, al cuál seguiremos muy de cerca en esta aventura de la inteligencia artificial. Sois muy importantes. La batalla continúa.

¿Quieres participar en un «Hablemos»? No necesitamos que sepas del tema, ni que traigas nada preparado. Se trata de un pequeño evento para charlar informalmente y crear vínculos en la comunidad. Hacemos uno de estos el último viernes de cada mes. ¡No te lo pierdas!

Dejar un comentario

La Unió Europea ha de seguir finançant el Programari Lliure

Publicat inicialment per petites singularités. Traducció a l’anglès proporcionada per OW2.

Si desitges signar la carta, per favor, publica-la al teu lloc web i afegeix-te a tu mateix o a la teva organització a la taula que trobaràs al lloc original.

Carta Oberta a la Comissió Europea

Des del 2020, els programes Next Generation Internet (NGI), part del programa Horitzó de la Comissió Europea, financen programari lliure a Europa utilitzant un mecanisme de finançament en cascada (vegeu, per exemple, les convocatòries de NLnet). Aquest any, segons el projecte de programa de treball Horitzó Europa que detalla els programes de finançament per al 2025, hem notat que Next Generation Internet ja no es menciona com a part del Cluster 4.

Els programes NGI han demostrat la seva força i importància per a donar suport a la infraestructura de programari europea, com un instrument de finançament genèric per a finançar béns digitals comuns i assegurar la seva sostenibilitat a llarg termini. Considerem aquesta transformació incomprensible, més encara quan NGI ha demostrat ser eficient i econòmic per a donar suport al programari lliure en la seva totalitat, des de les iniciatives més petites fins a les més establertes. Aquesta diversitat de l’ecosistema recolza la força de la innovació tecnològica europea, i mantenir la iniciativa NGI per a proporcionar suport estructural als projectes de programari en el cor de la innovació mundial és clau per a reforçar la sobirania d’una infraestructura europea.

Contràriament a la percepció comuna, les innovacions tècniques sovint s’originen en comunitats de programació europees en lloc de nord-americanes, i són majoritàriament iniciades per organitzacions de petita escala.

El Cluster 4 anterior va assignar 27 milions d’euros a:

– «Internet centrat en l’ésser humà, alineat amb valors i principis comunament compartits a Europa»;

– «Un internet florent, basat en blocs de construcció comuns creats dins de NGI, que permet un millor control de la nostra vida digital»;

– «Un ecosistema estructurat de col·laboradors talentosos que impulsa la creació de nous béns comuns d’internet i l’evolució dels béns comuns d’internet existents».

En nom d’aquests desafiaments, més de 500 projectes van rebre finançament de NGI en els primers 5 anys, recolzats per 18 organitzacions que gestionen aquests consorcis de finançament europeus.

NGI contribueix a un vast ecosistema, ja que la major part del seu pressupost s’assigna a finançar tercers mitjançant convocatòries obertes, per a estructurar béns comuns que cobreixen tot l’àmbit d’Internet, des de maquinari fins a aplicacions, sistemes operatius, identitats digitals o supervisió del trànsit de dades. Aquest finançament a tercers no es renova en el programa actual, deixant molts projectes amb escassos recursos per a la investigació i la innovació a Europa.

A més, NGI permet intercanvis i col·laboracions en tots els països de la zona euro, així com en els «països associats»1, actualment tant un èxit com un progrés continu, igual que el programa Erasmus abans que nosaltres. NGI també contribueix a obrir i donar suport a relacions més llargues que el finançament estricte de projectes. Fomenta la implementació de projectes finançats com a pilots, recolzant la col·laboració, la identificació i l’ús comú d’elements entre projectes, la interoperabilitat en sistemes d’identificació i més enllà, i l’establiment de models de desenvolupament que barregen diverses escales i tipus d’esquemes de finançament europeus.

Mentre que Estats Units, Xina o Rússia despleguen enormes recursos públics i privats per a desenvolupar programari i infraestructura que capturen massivament dades privades dels consumidors, la UE no pot permetre’s aquesta renúncia.

El programari lliure i de codi obert, com el recolzat per NGI des del 2020, és per disseny l’oposat als vectors potencials d’interferència estrangera. Ens permet mantenir les nostres dades locals i afavoreix una economia i un coneixement comunitari, mentre permet una col·laboració internacional.

Això és encara més essencial en el context geopolític actual: el desafiament de la sobirania tecnològica és central, i el programari lliure permet abordar-lo mentre es treballa per la pau i la sobirania en el món digital en el seu conjunt.

En aquesta perspectiva, us instem a reclamar la preservació del programa NGI com a part del programa de finançament per al 2025.

1: Segons el definit per Horitzó Europa, els Estats membres en expansió són Bulgària, Croàcia, Xipre, la República Txeca, Estònia, Grècia, Hongria, Letònia, Lituània, Malta, Polònia, Portugal, Romania, Eslovàquia i Eslovènia. Els països associats en expansió (sota la condició d’un acord d’associació) inclouen Albània, Armènia, Bòsnia, Illes Fèroe, Geòrgia, Kosovo, Moldàvia, Montenegro, Marroc, Macedònia del Nord, Sèrbia, Tunísia, Turquia i Ucraïna. Les regions ultraperifèriques en expansió són: Guadalupe, Guaiana Francesa, Martinica, Illa de la Reunió, Mayotte, Saint-Martin, Açores, Madeira i les Illes Canàries.

1 comentario

Divendres 26 de Juliol de 2024, 19h. Hablemos. Els perills de les IA 2ª part

En aquesta segona part de la nostra tertúlia sobre els perills de la intel·ligència artificial, aprofundirem en temes crítics com el colonialisme de dades i com la IA pot ser utilitzada tant per al bé com per a finalitats perjudicials. Analitzarem com les nostres dades, recollides diàriament, poden ser utilitzades per manipular, polaritzar i confrontar els usuaris, tot mentre les empreses comercien amb elles.

Objectius:

  • Comprendre el colonialisme de dades: Explicarem què és i com afecta les comunitats menys privilegiades.
  • Debatrem sobre com la recopilació i l’ús de dades per part de grans corporacions pot perpetuar desigualtats.
  • Examinar exemples de manipulació: Analitzarem casos concrets on la IA ha estat utilitzada per manipular l’opinió pública i polaritzar la societat.
  • Debatre sobre alternatives empoderadores: Explorarem solucions i alternatives que poden empoderar la comunitat, com la IA ètica, l’ús de dades obertes i tecnologies lliures.
    Reflexionar sobre el futur: Debatrem sobre els perills de permetre que les màquines prenguin decisions que afecten els humans i com podem assegurar un futur on la IA sigui una aliada i no una amenaça.

 

Recordatori dels punts tractats al Hablemos anterior:

  • IA privativa i dades: Les IA són privatives i es queden amb les teues dades.
  • Dependència i pèrdua d’habilitats: Si ens acostumem al fet que la IA ens faça la feina;
    1. Serem dependents d’ella
    2. Perdrem habilitats.
  • Poder tecnològic: Gastar una IA és com saber llegir; saber programar una IA és saber escriure (tenir el poder, ser creatiu, dominar la tecnologia i no que la tecnologia ens domine).
  • Educació i llibertat: Si formem als educadors i a l’alumnat a gastar IA (o qualsevol programari) privatiu, no els estem ensenyant a ser lliures.
  • Programari lliure: És important que creem IA de programari lliure. És important que els xiquets i les xiquetes cresquen sabent crear els seus propis programaris, lliures, of course 😉

 

Enllaç a Open Street Map de LAS NAVES Av.Joan Verdaguer, 16

Comentarios cerrados

Divendres 28 de Juny de 2024, 19h. Hablemos. Els perills de les IA


Què fa la IA amb les nostres dades? Es pot usar per a fer el bé? Què és el colonialisme de dades?

Cada dia regalem les nostres dades a un món d’algorismes amb els quals les empreses comercien i poden manipular, polaritzar, dividir, confrontar als usuaris.

Però encara que tot semble perdut, hem de lluitar per buscar alternatives que empoderen a la comunitat. La IA no ha de ser el nostre enemic (sempre que no ens prive de la nostra llibertat).

El 3 de juny es van complir 41 anys de Jocs de guerra, una pel·lícula que va retratar millor que ningú la cultura hacker dels 80 i, quasi 3 dècades abans de ChatGPT un advertiment sobre els perills de deixar que els ordinadors prenguen decisions que afecten els éssers humans.

Va ser l’any 1983. Mentre Linus Torvalds jugava amb el Vic 20 del seu avi i Richard Stallman feia els primers passos del projecte GNU (irònicament, al departament de IA), Ronald Reagan i Yuri Andrópov mantenien viva una guerra freda que quasi cap de nosaltres sabia que tenia els dies comptats. 41 anys de Jocs de guerra.

Enllaç a Open Street Map de LAS NAVES Av.Joan Verdaguer, 16

Comentarios cerrados

Dissabte, 8 de juny de 9:30 a 19:30. VLC TECH FEST 2024

https://vlctechfest.org/ca/

🗓Data: 8 de juny de 2024
⌚️Hora: 9:30 – 19:30

📍Lloc: Las Naves – C\ Joan Verdeguer, 16-24. 46024, Valencia (Baix de tot deixem un QR a Open Street Map)

És un dia de xarrades per i per a les comunitats tecnològiques de la Comunitat Valenciana. És un dia per descobrir, connectar i compartir.

Un format de conferència amb diversos tracks simultanis amb xarrades per a tots els gustos, amb temps per a preguntes i espai per al networking.

Un festival on el focus està en la participació, per la qual cosa és un esdeveniment gratuït i d’accés lliure sense entrada fins a completar l’aforament. La primera edició del 2018 va ser tot un èxit i més de 120 assistents van passar per VLCTechFest.

Durant els anys 2020 i 2021, a causa de la pandèmia global per coronavirus, es va veure obligat a suspendre l’esdeveniment. L’última edició va ser la del 2022 i ara tornen amb energies renovades disposades a reprendre-ho on ho van deixar.

Què ens espera a València Tech Hub 2024?

  • Ponències: Experts de reconeguda trajectòria compartiran les seues perspectives sobre el futur de la tecnologia i la seua aplicació en diferents àmbits.
  • Tallers: Sessions pràctiques on podreu aprendre noves habilitats i tècniques de la mà de professionals.
  • Espais de Networking: Zones dedicades a conéixer altres assistents, intercanviar idees i establir contactes professionals.
  • Exhibicions de Productes: Una àrea d’exposició amb les últimes novetats i innovacions de diverses empreses tecnològiques.

Aquest esdeveniment està obert a tothom, des de professionals del sector fins a estudiants i entusiastes de la tecnologia. No cal inscripció prèvia, només vindre amb ganes d’aprendre i compartir.

 

Enllaç a Open Street Map

Comentarios cerrados

Viernes, 19 de abril de 2024 a las 18:00. La libertad en el ciberespacio hoy. Por Richard Stallman y Javier Sepúlveda

Richard M. Stallman, fundador del software libre, hablará en Las Naves sobre libertad y privacidad en el ciberespacio

“El software libre, el primer requisito para libertad y privacidad en el ciberespacio” es el título de la charla que ofrecerá Richard M. Stallman en Las Naves el próximo viernes 19 de abril, a las 18:00 horas. El evento está organizado por la asociación GNU-Linux València y Las Naves.

Richard M. Stallman es físico, programador estadounidense, activista y fundador del movimiento del software libre, una alternativa al desarrollo y distribución del software privativo. También fundó el GNU como “un sistema operativo desarrollado por personas que trabajan juntas con el fin de lograr que todos los usuarios de software tengan la libertad de controlar sus operaciones informáticas”. Su trabajo está orientado también a lo social ya que imparte charlas y conferencias por todo el mundo para difundir sus valores informáticos.

A continuación de la conferencia de Richard M. Stallman, habrá una ponencia sobre “El sistema de pago GNU Taler” a cargo de Javier Sepúlveda Sanchis.

¡¡MUY IMPORTANTE!! La entrada a es libre hasta completar aforo.

Enlaces de interes:

Taler en español
Free Software Foundation
GNU celebración 40 aniversario
Programación Las Naves
Anuncio de Javier Sepúlveda en VALENCIATECH

Logo Open Street Map

Enlace a Open Street Map

Comentarios cerrados

Viernes 26 de Abril de 2024, 19h. Hablemos. La penetración de GNU/Linux en los ordenadores de escritorio, ha aumentado. ¿Seguirá subiendo?

Durante estos días hemos asistido la noticia publicada en varios medios de comunicación del universo Linux, en la que se asegura que la cuota de GNU/Linux ha aumentado en los ordenadores de escritorio. Hablaremos de las posibilidades de que su uso siga aumentando, y de que en algún momento próximo pueda sobrepasar a Mac, como todo parece indicar.

 

 

Enlace a Open Street Map

Comentarios cerrados
Utilizamos cookies propias solo para los inicios de sesión del sitio. Si está de acuerdo clique Aceptar, si no lo hace, y necesita usar esta funcionalidad, no le aseguramos un perfecto funcionamiento de la misma. Más información en nuestra    Política de Cookies
Privacidad