En este blog solo encontrarás reseñas de libros que en algún momento me ha apetecido leer. Ninguna ha sido encargada ni pedida por autores o editores, y todos los libros los he comprado. En resumen: un blog de reseñas no interesadas para que sean interesantes.

lunes, 17 de noviembre de 2025

Frenar a Silicon Valley – Gary Marcus

 


Gary Marcus (1970), que de niño hizo un programa en un Commodore 64 para traducir del latín al inglés, lo cual le valió una precoz entrada en la universidad (con estudios de postgrado en el MIT) y es actualmente profesor de la Universidad de Nueva York, «es una de las voces más escuchadas en Estados Unidos sobre inteligencia artificial y sus peligros», dijo El País el 12 de noviembre de 2024. Poco antes había participado junto a Sam Altman (OpenAI-ChatGPT) en el subcomité del Senado de Estados Unidos que analizaba los peligros y modos de control de la inteligencia artificial (IA). «Frenar a Silicon Valley» ha sido publicado en Estados Unidos por The MIT Press, editorial académica vinculada al Instituto Tecnológico de Massachusetts.

«Frenar a Silicon Valley» es un libro profundamente esclarecedor para los profanos en esta tecnología disruptiva. Explica qué es la IA generativa, por qué no es confiable para los buenos propósitos (sobre todo en su prematuro estado de desarrollo) pero sí un peligro sin precedentes para los malos, qué inconvenientes tiene y cómo intentar controlarla. Además, denuncia con contundencia el monumental abuso de las pocas compañías punteras, el inmenso poder que están acumulando y la colosal pérdida de soberanía de los estados a manos de un exiguo número de particulares –los propietarios y dirigentes de estas compañías- que no responden ante el electorado (y que, por ejemplo, han decidido sin ningún tipo de control que otros particulares o estados accedan a tecnologías capaces de diseñar armas biológicas, influir en los resultados electorales o estafar a millones de personas). 

El libro, bien estructurado (a pesar de haber sido escrito en tiempo récord) y con capítulos cortos y claros, plagados de ejemplos sencillos pero ilustrativos, puede dividirse en tres partes:

Primera, la conceptual: qué es la inteligencia artificial y cómo se desarrolla, lo cual permite explicar por qué ha de fallar siempre.

Los mecanismos de la IA son conocidos desde hace más de 80 años. Ya en los años 40 y 50 hubo desarrollos. Su reciente explosión ha sido posible debido al vertiginoso aumento de la capacidad de proceso de datos: el big data.

Mientras que la programación tradicional es determinista (el programador establece una regla y el programa ofrece un resultado que siempre cumple la regla) la IA es probabilística: el programador «entrena» un programa mostrándole infinidad de resultados posibles (por ejemplo, «estos mil millones de fotos son de garbanzos y estos treinta mil millones de fotos no»), para que el programa, usando técnicas de predicción estadística posibles gracias a los «modelos de lenguaje extenso», cree una regla para identificar garbanzos en fotografías. Por tanto, esa regla no sigue las instrucciones de un programador, sino que es resultado del «alimento/entrenamiento» recibido. Como el entrenamiento se basa en montañas de datos la completa depuración previa de éstos es imposible y el resultado está siempre abocado a un margen error. Pero así como en la informática tradicional el error es siempre de programación y, a la vista del resultado erróneo, detectable, en la IA la posibilidad de que haya errores se multiplica, porque no hay capacidad para depurar la información de entrenamiento separando la correcta de la incorrecta, y a posteriori, a la vista del resultado, la posibilidad de detectar el origen del error apenas existe. En la actualidad, señala Marcus, los errores de la IA se parchean, no se corrigen, porque ni los diseñadores de la IA saben cuál es el origen de los fallos.

Es decir, la IA no es inteligencia, sino predicción estadística. No hay comprensión, ni razonamiento, ni reflexión. Incluso cuando la IA parece hablar con nosotros nos está ofreciendo las respuestas más previsibles tras analizar los modos de uso del lenguaje, no las más razonables. Y la predicción estadística es probabilística. Es decir, sujeta a error, como bien ignoran todos los que hoy critican tantas cosas hasta situarse en contra de la ciencia.

Segunda, los peligros de la IA.

La IA generativa es una tecnología en pañales, prematuramente lanzada al mercado (en busca de poder y cantidades de dinero inimaginables), lo que contribuye a hacerla aún más peligrosa.

Dando por sentado que la IA es una tecnología capaz de aportar mucho y bueno a la humanidad, en el momento actual hay que preocuparse por sus peligros, dado que la IA no está regulada por gobiernos que deben mirar por el bien común sino en manos de empresas que miran por ampliar su poder y disparar sus cuentas de resultados, lo que las lleva, entre otras cosas, a facilitar las trapacerías de todos tipo de delincuentes e irresponsables y a abusar del resto de la sociedad comenzando por la explotación de cualquier dato sin tener en cuenta ni razones de privacidad ni de propiedad intelectual. La expectativa de ganancias nunca antes vistas, que se cumplirán o no, están detrás del crecimiento del monstruo.

Que la IA es ahora mismo una tecnología usada al servicio del delito, del fin de las democracias y de todo tipo de abusos ofrece pocas dudas, y aún menos las va a haber de modo inmediato.

Además, están los riesgos inherentes a la propia tecnología. A la falta de conciencia sobre sus limitaciones. La programación tradicional permite, por ejemplo, que el programador elimine todo sesgo machista o racista. La IA, sin embargo, apenas puede hacerlo, porque el machismo y el racismo existen, con lo que al alimentarse/entrenarse con lo que hay los sesgos se trasladan a la regla que luego el usuario usa para alcanzar un resultado que será necesariamente sesgado. A esto hay que unir que, como ya he dicho, la IA no es capaz de distinguir la información falsa de la verdadera, por lo que las «alucinaciones» están garantizadas.

Qué eufemístico es este mundo, ¿verdad? Se llama «inteligencia» a la predicción estadística y «alucinación» a la metedura de pata. ¿Por qué? Por razones comerciales y de financiación. Hay que hacer atractivo el producto.

La tercera parte del libro está dedicada a las posibilidades de reacción de la sociedad para defenderse del mal uso y mal funcionamiento de la IA y ponerla a su servicio. El autor se centra en Estados Unidos y un poco en Europa, avisa de que el vaso está vacío o casi vacío y analiza las posibilidades de llenarlo. A estos efectos son significativas, ilustrativas y esperanzadoras las alusiones a la historia de la regulación.

En resumen, un libro claro y ameno para saber algo más sobre lo que se nos viene encima, para intentar que no nos aplaste y para luchar por sus beneficios.


No hay comentarios:

Publicar un comentario