Categorías
Ciencia Libros

Inteligencia Artificial, antes y ahora

Matteo Pasquinelli ofrece una “historia social” de la IA. El término “el ojo del amo” es una metáfora tomada de Karl Marx para establecer paralelismos entre el estado pasado y el estado actual de la IA y su amplia aplicación en la vigilancia, como el reconocimiento facial y tecnologías análogas utilizadas por corporaciones y gobiernos.

Anuncios

* Por Andrea Reichenberger

El libro de Matteo Pasquinelli ofrece una visión perspicaz y crítica de la historia de la inteligencia artificial (IA) desde una perspectiva socioeconómica. Su marco teórico postula que la IA es un reflejo del conocimiento y el comportamiento humano colectivo, codificado en algoritmos que están incorporados dentro de las relaciones sociales. El contexto socioeconómico, tal como lo delinea Pasquinelli, también guía el método con el cual el autor postula y fundamenta su teoría del trabajo sobre la inteligencia y la interacción hombre-máquina. El objetivo del autor es establecer una conexión entre el constructivismo social y la epistemología histórica y política. El término “el ojo del amo” es una metáfora tomada de Karl Marx. Pasquinelli emplea esta metáfora para establecer paralelismos entre el estado pasado y el estado actual de la IA y su amplia aplicación en la vigilancia, como el reconocimiento facial y tecnologías análogas utilizadas por corporaciones y gobiernos, comparándola con el rol de un supervisor de fábrica en la era industrial.

El libro se divide en una Introducción, dos unidades más grandes: “La Era Industrial” (primera parte) y “La Era de la Información» (segunda parte), y una Conclusión. En la gran mayoría de las introducciones a la historia del desarrollo temprano de las computadoras y la IA, se hace referencia a celebridades como Charles Babbage y Ada Lovelace. Pasquinelli emplea un enfoque similar. Sin embargo, en contraste con las narrativas predominantes, Pasquinelli sitúa la narrativa asociada con estas figuras dentro del contexto de una burguesía moldeada por el conocimiento y las estructuras de poder de la era industrial. Este reposicionamiento del enfoque es consecuente, ya que hace girar el tema desde la imitación de la inteligencia humana de un individuo por una máquina hasta la mecanización de los procesos de trabajo a gran escala colectiva. Desde un punto de vista marxista, esta transición significa la automatización del «intelecto general», que representa el trabajo intelectual colectivo de la fuerza laboral, que está aumentando a la par con el avance de las tecnologías en el lugar de trabajo. Una ilustración notable de este fenómeno es el ámbito del reconocimiento de patrones y la clasificación de datos, que puede conceptualizarse como la automatización del “trabajo de percepción”.

En consecuencia, la segunda parte del libro se centra en el papel del conexionismo y sus sutiles conexiones con la cibernética, caracterizada por conceptos contrapuestos de inteligencia, métodos para modelar el cerebro humano y teorías de autoorganización. Pasquinelli demuestra cómo la IA conexionista temprana estudiaba principalmente el ojo, en lugar del cerebro, como una red de operadores lógicos. Además, Pasquinelli subraya el papel fundamental de Friedrich Hayek en la popularización de una teoría conexionista de la mente y su visión del mercado como un repositorio distribuido de conocimiento. Esta perspectiva ofrece una interpretación divergente de la historia de la teoría de redes neuronales, sometiéndola a críticas radicales y comparándola con la teoría de la Gestalt. La narrativa predominante, que es ampliamente aceptada, afirma que la teoría de redes neuronales se remonta a un ensayo titulado “Un cálculo lógico de las ideas inmanentes en la actividad nerviosa”, publicado por el científico médico Warren McCulloch y el lógico Walter Pitts en la edición de diciembre de 1943 del Bulletin of Mathematical Biophysics. El punto de partida de McCulloch y Pitts fue la estructura y actividad de las células nerviosas, como se conocía en 1943. Una extensión (axón) emana del cuerpo celular (soma), que se comunica con una célula vecina a través de la sinapsis. Utilizando este marco, McCulloch y Pitts crearon un modelo de red del sistema nervioso que funcionaba con señales eléctricas y permitía realizar la lógica proposicional o el álgebra booleana.

Los libros de texto afirman con frecuencia que el concepto de redes neuronales, desarrollado por McCulloch y Pitts, y posteriormente el modelo del Perceptrón desarrollado por Frank Rosenblatt en 1957, se inspiraron en las estructuras neuronales del cerebro. Sin embargo, Pasquinelli señala acertadamente que el éxito de las redes neuronales puede atribuirse al modelado matemático, pero también a su implementación técnica en la ingeniería eléctrica. Como afirma Pasquinelli: “Para un historiador de la ciencia y la tecnología, las redes neuronales artificiales de McCulloch y Pitts no parecen una idea completamente original, sino la elaboración de una más antigua”. En el Simposio Hixon de Pasadena, California, el 20 de septiembre de 1948, McCulloch interpretó las neuronas como relés telegráficos. No se trataba de un concepto novedoso, sino de una metáfora común que se remontaba al origen de los relés telegráficos. Por ejemplo, en una conferencia de 1851 sobre el movimiento animal, Emil du Bois-Reymond, fisiólogo alemán y cofundador de la electrofisiología experimental, estableció una analogía entre el sistema nervioso y las redes telegráficas eléctricas.

El discurso sobre la noción de la “corporización de la mente» está repleto de metáforas de este tipo, que se basan en la cuestión de si la percepción humana puede considerarse un acto cognitivo que puede representarse analíticamente y, en consecuencia, mecanizarse. Sin embargo, esta línea de investigación, en última instancia, pierde el punto clave. De hecho, la conceptualización de McCulloch de la mente como un sistema de comando y control contribuyó al surgimiento de una nueva ciencia de la tecnología de la comunicación durante la Guerra Fría, con un potencial considerable para la automatización industrial y el poder militar. Enfrentar este desarrollo ofrece nuevas perspectivas sobre “problemas no resueltos cuyo estudio puede ayudar a entender la forma y los límites que ha heredado el aprendizaje profundo, específicamente, la oposición no resuelta entre percepción y cognición, imagen y lógica, que ha obsesionado a la tecnociencia del siglo XX».

En conclusión, el libro de Pasquinelli realiza una contribución significativa a la historia de la sociología de la ciencia, con el potencial de adoptar una postura crítica sobre la política de la IA contemporánea y la cultura tecnológica. Pasquinelli destaca la transición de la extracción localizada de conocimiento, ejemplificada por las máquinas de la era industrial, a la escala global. Las grandes empresas recopilan ahora ingentes cantidades de datos de sus usuarios para entrenar grandes modelos de IA, lo que resulta en una acumulación de poder y conocimiento sin precedentes. Al mismo tiempo, los sesgos inherentes a la sociedad moderna, incluidas las desigualdades de género y raciales, están inextricablemente arraigados en estos sistemas de IA. Esta reflexión crítica sobre la historia de la IA invita a reevaluar la dinámica de poder actual en las políticas de IA. El aprendizaje automático, las redes neuronales y la IA tienen un enorme potencial de innovación. Se espera que transformen la investigación médica y la atención sanitaria, así como la heurística matemática, por mencionar sólo dos ejemplos. Precisamente por esto, un enfoque responsable de la IA es de suma importancia. Es crucial reconocer que esto también abarca un enfoque responsable de la historia de la IA. El libro de Pasquinelli es un buen ejemplo en este sentido. Es fundamental que filósofos e historiadores tengan esto en cuenta, especialmente al participar en debates sobre la investigación cerebral y la ciencia cognitiva, que a menudo se centran en las estructuras neuronales del cerebro sin considerar las implicaciones más amplias del aprendizaje automático y las redes neuronales. Estas redes se desarrollan y utilizan cada vez más en áreas muy alejadas de las estructuras cerebrales y las redes neuronales biológicas, como la banca, el derecho y el comercio.

Sin embargo, el libro de Pasquinelli se mantiene firmemente arraigado en la argumentación y la metodología clásicas y tradicionales, sin incorporar métodos consolidados de recopilación y análisis de datos cuantitativos y cualitativos, comunes en la historia de la tecnología, y sin incluir los métodos cada vez más importantes de las humanidades digitales para estudiar la historia de la tecnología y la IA, con el fin de arrojar luz sobre las sutiles interrelaciones sociales, políticas, económicas y ambientales presentes en la historia de la IA desde una perspectiva global.

Artículo aparecido originalmente en “Centaurus” 67-1 (2025). Se traduce con autorización de su autora. Traducción: Patricio Tapia

“El ojo del amo”.Matteo Pasquinelli. (Trad. M. M. Alonso). FCE, México, 2025, 260 pp.

* Andrea Reichenberger es profesora en la Universidad Técnica de Múnich. Es filósofa e historiadora de la ciencia y la tecnología. Actualmente investiga el papel de las mujeres en la historia de la física cuántica. Es autora del libro “Émilie Du Châtelets Institutions physiques. Über die Rolle von Prinzipien und Hypothesen in der Physik” (2016).

Deja un comentarioCancelar respuesta

Descubre más desde Barroquita

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Salir de la versión móvil