jueves, 6 de junio de 2024

Evolución

Los computadores irrumpieron en nuestras vidas, como herramientas imprescindibles,
antes de pasar a ser artilugios de gran consumo, a finales de los años 80 y durante los
años 90 del pasado siglo. Durante un corto espacio de tiempo tuvimos la impresión de
que se trataba de una tecnología que podríamos, si no controlar, al menos
comprender. No fue así. Pronto supimos de la existencia de los microprocesadores
que gobernaban el conjunto y que eran auténticas cajas negras, al menos para
nosotros. Lenguajes de alto nivel, intérpretes y compiladores y, en última instancia,
aplicaciones elaboradas para resolver los más diversos problemas, nos alejaron cada
vez más de los arcanos de las máquinas y nos vimos compelidos a tratar, sólo, con la
superficie de aquellos extraordinarios aparatos.

Así, como cualquier otra herramienta cuya utilidad estuviera fuera de duda, los
computadores pasaron a formar parte de la vida cotidiana sin que fuera necesario
hacerse demasiadas preguntas sobre su forma de funcionamiento. Después de todo,
la gente ha utilizado muchos años el botijo sin necesidad de elucubrar sobre la
porosidad de la cerámica o las propiedades endotérmicas de la evaporación del agua.
La miniaturización y la llegada de los teléfonos listos, smartphones para los que no
hablan español, generalizó el uso de las computadoras sin que la gente supiera, ni le
interesara, lo que había detrás.

Con el tiempo hemos desarrollado una dependencia casi absoluta de estos
dispositivos, hasta el extremo de que la simple amenaza de problemas, hipotéticos,
como el efecto 2000, o reales, como la pérdida o confiscación del móvil, generan algo
muy parecido al pánico. Y por si esa dependencia, que ya es un hecho, no fuera
suficiente, en los últimos años se ha puesto de moda el término ‘digitalización’ como
panacea universal para resolver los problemas de gestión y funcionamiento de
empresas e instituciones y, sobre todo, para acabar con los últimos restos de
intervención humana, en los pocos procesos analógicos que aún la requieren.

Y así llegamos al final, por ahora, de este proceso: conseguir que las máquinas se
comporten de manera ‘inteligente’, algo que el ‘homo sapiens’ lleva años intentando
sin demasiado éxito. La búsqueda de una inteligencia ‘artificial’ no es algo reciente. En
su forma actual se remonta a los años 50 del pasado siglo y, si ahora está teniendo
tanto éxito, a la hora de captar la atención del público, es por los impresionantes
resultados logrados gracias a la aplicación de la fuerza bruta: capacidad de proceso y
velocidad, potencia y diseño de los sistemas de computación y redes neuronales y
nuevas técnicas de aprendizaje profundo sobre ingentes masas de datos. Todo ello
desarrollado, claro, en centros de investigación estadounidenses o, en todo caso, muy
lejos, y no sólo físicamente, de las granjas de ordenadores con las que nuestros
gobiernos, de todos los ámbitos y colores, están tan entusiasmados.

Como las cadenas de bloques, la biotecnología, las crisis de todo tipo o la
sacralización de la mediocridad, la IA ha llegado para quedarse. Contribuirá a dar
forma al futuro y no se limitará a conducir automóviles, generar vídeos a partir de
texto, resolver problemas o redactar ensayos para el colegio. El modelo creado y
distribuido por la empresa OpenAI, uno entre muchos, tiene más de 100 millones de
usuarios con los que está completando su entrenamiento. Muchos son usuarios
gratuitos, al menos en la versión básica, pero solo aparentemente. Ya es sabido que
todo tiene, finalmente, un precio. 

Enviado a ECA 06062024