
El cincuenta por ciento de los expertos dice que en un futuro próximo, la inteligencia artificial igual a la de los humanos será una realidad. El otro cincuenta por ciento dice que no. Mientras tanto, la inteligencia artificial ya se ha sumado al conjunto de miedos básicos de la humanidad moderna (al lado del calentamiento global, el fascismo, el plástico, etc.). La advertencia de las consecuencias de su desarrollo violento e incontrolado fue formulada por el excéntrico empresario Elon Musk, el gran astrofísico ya fallecido Stephen Hawking, su colega Max Tegmark, el elegante futurólogo sueco Nick Bostrom y varias otras figuras destacadas de la vida pública. Los medios de comunicación recogieron con entusiasmo estas advertencias y el el miedo se esparció entre la gente.
¿Creer o no creer en las declaraciones alarmistas de los famosos de la ciencia y la tecnología? ¿Tener miedo o no?
John Brockman, un famoso agente literario de Nueva York, preguntó recientemente a veinticinco representantes y referentes del mundo de la ciencia y el arte para recabar sus opiniones sobre la inteligencia artificial, de cuyas declaraciones, que han sido publicadas el año pasado bajo el título «Possible Minds” (Mentes posibles), voy a sacar algunas conclusiones.
La historia de la inteligencia artificial es, de hecho, la historia de las técnicas informáticas. El investigador George Dyson la divide metafóricamente en «Antiguo Testamento» y «Nuevo Testamento», el tiempo antes y después del advenimiento de las computadoras digitales y los códigos de software que se extienden por todo el planeta. En este sentido escribe: “Entre los profetas del Antiguo Testamento que proporcionaron los fundamentos de la lógica estaban Thomas Hobbes y Gottfried Wilhelm Leibniz. Los profetas del Nuevo Testamento incluyeron a Alan Turing, John von Neumann, Claude Shannon y Norbert Wiener. Alan Turing se preguntó qué se necesita para que las máquinas se vuelvan inteligentes. John von Neumann se preguntó qué se necesita para que comiencen a reproducirse. Claude Shannon se preguntó qué se necesitaría para que las máquinas se comunicaran sin problemas, independientemente de las obstrucciones. Y Norbert Wiener se preguntó cuánto tardarían las máquinas en tomar el control. Control mundial, agreguemos.
¿La Inteligencia Artificial dominará el mundo?
La figura de este último profeta, Norbert Wiener, es crucial para el clima de amenaza que la inteligencia artificial genera hoy en día. Él fue un brillante matemático, creó la cibernética, una rama del conocimiento sobre lo que podría llamarse una proto-inteligencia o pre-inteligencia artificial. Wiener esperaba fusionar al hombre con la máquina, pero al mismo tiempo advertía sobre los potenciales peligros de esta fusión. Tenía miedo de la deshumanización de la humanidad y de que las máquinas se hicieran cargo del control total sobre ella. Expresó esta dualidad en su libro, The Human Use of Human Beings (El uso humano de los seres humanos), publicado en 1950. Escrito en el apogeo de la Guerra Fría, contiene elementos de un escalofriante repaso sobre cómo las organizaciones y sociedades totalitarias representan una amenaza para la democracia -señala Seth Lloyd, físico cuántico del Instituto Tecnológico de Massachusetts, MIT- aunque agrega que el escrito es tan profético como asombrosamente incorrecto.
La cibernética nos dio satélites y centrales telefónicas: esto es lo que predijo Wiener. Y nos dio mucho más: las computadoras personales, la miniaturización e individualización de la electrónica, la explosión del poder de cómputo, cosas que él ni siquiera lo sabía. Este autor siempre vio la tecnología como algo impuesto desde arriba, y no algo nacido y creado desde abajo, a través de la innovación y la autoorganización. Percibió el cerebro humano de una manera rudimentaria, desde la perspectiva actual, inaceptablemente simplificadora. La visión de Wiener en cuanto al dominio de la máquina sobre el hombre debe, por tanto, leerse con ciertas reservas.
El mundo es inimaginablemente más rico de lo profetizado por él, más complejo, política, social, cultural y científicamente diverso, escribe mencionado ya Lloyd. El tiempo aterrador de la carrera armamentista y las ojivas termonucleares listas para ser lanzadas, afortunadamente, ya no es nuestro tiempo presente.
¿Qué diría Wiener hoy, según Lloyd?: «Estaría encantado con el poder de las computadoras e Internet. Hubiera estado feliz de que las primeras redes neuronales en las que estuvo involucrado dieran lugar a métodos cognitivos de aprendizaje automático. Él no vería la inteligencia de las máquinas como una amenaza, sino como un fenómeno separado, no humano, que evoluciona en paralelo con él».
¿El progreso tecnológico impulsará la opresión política?
Steven Pinker, un popular psicólogo de la Universidad de Harvard, coloca las siniestras profecías de Wiener sobre un trasfondo histórico aún más amplio. Los temores sobre el dominio de las computadoras tienen sus raíces en la rebelión romántica contra las «oscuras fábricas satánicas» de la revolución industrial, escribe Pinker. Quizás los temores sean aún más profundos: los arquetipos de Prometeo, Pandora y Fausto. Hoy, sus objetos son la nanotecnología, la ingeniería genética y la inteligencia artificial. Sin embargo, no son ellos que nos están amenazando, sino el llamado sistema, en el que vivimos.
Pinker: “Casi todos los cambios espacio-temporales en la libertad de pensamiento se deben a cambios en las normas e instituciones, y casi ninguno se debe a cambios en la tecnología. Si bien es posible imaginar una combinación hipotética de los sistemas totalitarios más siniestros y la tecnología más avanzada, en el mundo real deberíamos estar atentos a las normas y leyes antes que a la tecnología». Si realmente fuera así, como escribió George Orwell, que los avances tecnológicos fueran el principal motor de la opresión política, las sociedades occidentales deberían experimentar crecientes restricciones a la libertad de expresión ya en la segunda mitad del siglo pasado, pero esto no sucedió, argumenta el psicólogo. Incluso puede arriesgarse a afirmar que lo cierto es lo contrario: que los progresos tecnológicos aumentaron el grado de libertad de expresión hasta los límites que algunos consideran indeseables.
Pinker escribió recientemente uno de los libros más vendidos en el mundo que en la versión en español se conoce con el título “En defensa de la Ilustración, la ciencia, el humanismo y el progreso”. En él, luego de un análisis en profundidad de datos históricos, argumenta que vivimos en el mejor de los tiempos, y que el mundo nunca ha sido tan pacífico como el último – estadísticamente tomando. También argumenta que la amenaza no se llama Inteligencia Artificial: «Contrariamente a las amenazas tecnológicas quiméricas, la única amenaza real hoy en día es la corrección política opresiva, que ahoga el alcance de las hipótesis expresadas públicamente, asusta a muchas personas inteligentes para que no entren en la arena intelectual y desencadena una reacción reaccionaria». Así que es ella, la corrección política, la que sigue dificultando la toma de decisiones de manera colectiva para comprender el mundo.
¿Qué va a «querer» y que va a «poder» la Inteligencia Artificial?
Además, la inteligencia artificial no necesariamente “querrá” algo, y menos para lastimarnos. Ser inteligente no es lo mismo que querer algo. Esta convergencia es producto solamente de la evolución humana darwiniana, que es un proceso competitivo, argumenta Pinker. En el cerebro de nuestra especie, el razonamiento va de la mano con el dominio sobre los rivales y la lucha por los recursos. «Pero sería un error confundir los circuitos del sistema límbico de una especie de primate con la esencia de la inteligencia como tal». No existe una ley que diga que los individuos inteligentes deben convertirse en megalómanos despiadados, concluye el psicólogo de Harvard. Y de todos modos, por el momento no hay nada de qué hablar, ya que los éxitos de incluso los mejores sistemas modernos de inteligencia artificial derivan únicamente de su potencia informática bruta. Pinker los llama “sabios idiotas brillantes”.
“Cuando dejamos de lado las fantasías de la megalomanía digital, la omnisciencia instantánea, el control total sobre cada partícula del universo, la Inteligencia Artificial resulta ser una tecnología como cualquier otra. Se está desarrollando gradualmente, diseñada para cumplir con una variedad de criterios, probado antes de su lanzamiento al mercado y mejorado continuamente para ser más efectiva y segura”, concluye.
Por otro lado, Neil Gershenlfeld, físico del MIT y director del Centro de Bits y Átomos señala que nuestra actitud hacia la inteligencia artificial es ciclofrénico, maníaco-depresivo. Estamos en el quinto ciclo que, como todos los demás, dura aproximadamente diez años. Primero hubo grandes mainframes (computadoras de alto rendimiento y gran cantidad de memoria). Se suponía que iban a liberar a las personas del trabajo automático. «Me resultó difícil escribir programas que realizaran tareas que fueran fáciles para los seres humanos», recuerda Gershenfeld. Luego vinieron los llamados sistemas expertos que se suponía que iban a reemplazar a los especialistas humanos. Hoy vivimos en la era del aprendizaje automático que, si bien cumple con las primeras expectativas de los investigadores de inteligencia artificial, genera preocupaciones intelectuales y emocionales debido a su opacidad. “Cada una de estas etapas fue anunciada como una revolución, pero todas se redujeron a lo mismo: sacar conclusiones de las observaciones. Empezaron con ejemplos prometedores de rendimiento de Inteligencia Artificial en campos bien delimitados y terminaron fallando cuando se enfrentaron con la complejidad de desafíos prácticos que no eran ya tan estructurados”, escribe Gershenfeld.
Parece que atribuimos poderes a la inteligencia artificial que no posee, y puede que nunca los posea. Los avances recientes en el aprendizaje automático y la computación por parte de sistemas neuronales idealmente similares solo reproducen bien un aspecto muy específico de la inteligencia humana, que se implementa en el segmento de la corteza cerebral responsable de reconocer patrones específicos (por ejemplo, en las fotografías, los rayos X), señala Seth Lloyd.
¿La Inteligencia Artificial pensará como los seres humanos?
«Independientemente de su impresionante nombre, la Inteligencia Artificial se compone principalmente de técnicas de detección de patrones estadísticos en grandes conjuntos de datos», señala Alison Gopnik, psicóloga del desarrollo de la Universidad Berkeley de California. ¿Qué tiene que ver esto con el tema de cómo las personas entienden, cómo aprenden, cómo crean representaciones complejas, cómo las organizan en estructuras, en jerarquías, cómo construyen modelos de la mente que nos permiten leer las intenciones de otras personas?
Desde la época de Platón y Aristóteles se conocen dos métodos básicos de pensar sobre el pensamiento. Aristóteles, seguido por filósofos como David Hume y los psicólogos Ivan Pavlov y Skinner, «empezó desde abajo» – a partir de las señales provenientes de los sentidos. Fue sobre esta base que la mente estaría creando representaciones efímeras, modelos operacionales del mundo. Por otro lado, Platón, luego Descartes y hoy Noam Chomsky, vieron los procesos de cognición como «comenzando desde arriba». Ellos asumieron que tal vez nosotros mismos ya somos portadores de dichos modelos, conceptos abstractos, y que buscamos sus confirmaciones en las señales que vienen del mundo. “Gran parte del revuelo en torno a la Inteligencia Artificial se debe al hecho de que sus investigadores encontraron recientemente versiones nuevas y eficientes de estos métodos de aprendizaje. Pero no hay nada particularmente nuevo sobre los métodos en sí”, recuerda Gopnik.
¿Tendrá la Inteligencia Artificial la imaginación y un poco de locura?
El aprendizaje automático, una actualmente rama muy popular de la Inteligencia Artificial, no es trasparente, agrega Judea Pearl, jefa del Laboratorio de Sistemas Cognitivos de la Universidad de California en Los Ángeles, se optimiza por sí solo y, por lo general, nos dará los resultados correctos. Pero cuando no lo hace, no tenemos idea de qué salió mal y qué se debe arreglar».
Dichos sistemas mejoran su eficiencia en un proceso lento muy similar a la selección natural tal como la conocemos en la evolución darwiniana. “Veo el aprendizaje automático como una herramienta que nos lleva de los datos simples a las probabilidades. Pero se necesitan al menos dos pasos más para pasar de las probabilidades a la verdadera comprensión. Uno es la capacidad de predecir los efectos de las acciones, y el otro, la imaginación que permita la formulación de hipótesis opuestas”, escribe Pearl. Estos son pasos muy grandes, incluso hitos que ninguna tecnología de la Inteligencia Artificial todavía ha dado.
Por otro lado, sin un poco de locura, no hay progreso real, no hay inteligencia que conduzca al progreso. Los babilonios, recuerda Pearl, eran maestros en la predicción de fenómenos astronómicos. Pero lo hicieron mecánicamente. A los griegos, por el contrario, les encantaba especular. La ciencia griega era el dominio, en cierto sentido, de una locura creativa: creaban visiones de tubos cósmicos llenos de fuego, los hemisferios de la Tierra sobre lomos de tortuga, etc. Y es precisamente esta estrategia del modelado desenfrenado, y no las simples extrapolaciones de las observaciones conservadoras, lo que ha impulsado el desarrollo de la civilización moderna.
¿Podrá la Inteligencia Artificial aprender como lo hacen los niños?
Alison Gopnik señala que se subestima el hecho de que los datos cargados a las computadoras suelen ser clasificados y preparados previamente por los seres humanos. Google Translate funciona porque se beneficia de millones de traducciones humanas. Esta es la razón por la que es capaz de generar nuevos fragmentos de texto, no porque los entienda genuinamente, a diferencia, por ejemplo, de los niños humanos.
Los niños son buscadores activos de conocimiento. Incansablemente adquieren conocimientos del entorno a través del juego y la exploración – escribe Gopnik, y como muestra una investigación reciente, lo hacen de una manera mucho más sistemática de lo que parecía: «Toman el conocimiento de una manera extremadamente sutil y sensible, sacan conclusiones complejas sobre la procedencia de la información y qué tan confiable es, y la integran sistemáticamente con sus propias experiencias «.
Finalmente, Gopnik asegura: «Hasta ahora, la estupidez natural puede causar mucho más daño que la inteligencia artificial».
¿Puede la Inteligencia Artificial ser creativa?
Creatividad: sin ella no hay inteligencia artificial real, capaz de realizar todas las tareas mentales características de la inteligencia humana, escribe David Deutsch, uno de los físicos y filósofos más interesantes en la actualidad. Es por eso que a los hombres prehistóricos, privados de creatividad Deutsch, ni siquiera les gusta llamar humanos: «Eran humanos en términos de potencial físico y mental, pero monstruosamente inhumanos en términos del contenido de sus pensamientos».
A lo largo de las generaciones prehistóricas, nadie inventó nada, nadie aspiró a nada nuevo, porque todos asumieron que el progreso era imposible, continúa Deutsch. No hubo innovaciones tecnológicas ni teóricas, ni siquiera visiones o intereses que pudieran inspirar estas invenciones. «Los individuos que llegaban a la madurez fueron reducidos esencialmente a una forma de inteligencia artificial, cargada con el software de las habilidades necesarias para recrear una cultura estática y dañar a las generaciones futuras con la incapacidad de considerar siquiera otras posibilidades».
Así que una inteligencia artificial real tendrá que ser entrenada para rebelarse. Cuando juegue al ajedrez, a veces tendrá que pensar en contra de las reglas de la inteligencia artificial moderna. Y a veces tendrá que pensar como la típica Inteligencia Artificial limitada. La pregunta es si tales especímenes de inteligencia artificial creativa no se liberarían al final y causarían daño. Deutsch: “Sin duda habrá criminales entre ellos y enemigos de la civilización, tal como los hay entre las personas. Pero no hay razón para suponer que una inteligencia artificial creada en una sociedad compuesta principalmente por ciudadanos decentes, criados sin, como escribió William Blake, un alma humana encadenada, se colocará ella misma tales grilletes y/o decidirá convertirse en el enemigo de la civilización».
¿Se puede persuadir a la Inteligencia Artificial de la moralidad?
Deutsch escribe que la creación de una inteligencia artificial real será fundamentalmente diferente de otras tareas de programación en cuanto al componente moral, cultural y el elemento de libre albedrío. Será como criar a un niño. Seth Lloyd no piensa diferente en este aspecto. Las máquinas aprenden con el ejemplo y son excelentes en esto, pero siempre necesitan de supervisión y corrección por parte de sus maestros. «La educación informática es tan difícil y lenta como lo es con los adolescentes», escribe.
Deutsch argumenta sobre que no deberíamos alarmarnos: «Los temores actuales sobre la posibilidad de una Inteligencia Artificial deshonesta son un reflejo de los que siempre han existido en cuanto a la juventud rebelde, o más precisamente, un reflejo del temor de que la juventud cuando crezca puede alejarse de los valores morales y culturales establecidos”. Por esa razón no deberíamos vetar a la Inteligencia Artificial el acceso a ningún tipo de conocimiento, ni prohibir ningún método de reflexión. Más bien dejar que aprenda y madure. Darle la carta blanca.
Hay pocas probabilidades de que esta inteligencia artificial traiga el apocalipsis sobre nuestras cabezas, dice Deutsch: «La evolución de nuestros antepasados es el único caso conocido de desencadenar el pensamiento en el universo».
¿El hombre sabe con seguridad para qué sirve el diseño de la Inteligencia Artificial?
Cuando diseñamos inteligencia artificial, nos enfocamos demasiado en los objetivos y no lo suficiente en diseñarlos, observa Stuart Russell, un pionero de la Inteligencia Artificil en la Universidad Berkeley de California.
Desafortunadamente, escribe Russell, las investigaciones sobre la Inteligencia Artificial no se preocupa mucho por identificar estos objetivos que realmente queremos lograr. Se asume que los objetivos ya están implantados de alguna manera en la máquina. Mientras tanto, no importa cuán maravillosos sean los algoritmos, cuán preciso sea el modelo mundial utilizado por la Inteligencia Artificial, «las decisiones tomadas por una máquina pueden resultar indescriptiblemente estúpidas a los ojos del hombre común, cuando la utilidad de este algoritmo esté debidamente alineado con los valores humanos». Russell incluso propone cambiar la definición de inteligencia artificial. No debe ser un campo de conocimiento relacionado con la inteligencia pura, independiente de las metas sino con los sistemas que de manera comprobada, sean amigables para las personas.
Por supuesto, cabe la pregunta sobre de qué clase de personas estamos hablando. Max Tegmark del MIT, director del Future of Life Institute y del Foundational Questions Institute y autor de la iniciativa del Spiritus Movens, advierte contra los efectos negativos del dominio de la inteligencia artificial, escribe que “una superinteligencia perfectamente obediente, cuyos objetivos se alinean automáticamente con los del propietario humano, será como ela SS de Adolf Eichmann con esteroides. El riesgo real de la Inteligencia Artificial no es su maldad sino su competencia. Pero al final, señala no existe una tecnología inherentemente buena o mala, ni que nunca existió.
¿Podrá uno hacerse amigo de la Inteligencia Artificial?
Daniel C. Dennett, un filósofo de la mente de la Universidad de Tufts escribe: «La Inteligencia Artificial en sus elecciones se basa en sugerencias hechas por personas: de una manera nada reflexiva se atiborra con todo lo que sus creadores humanos han producido y devuelve reglas o regularidades de lo que encuentra”, aunque se tratara de algún hábito nuestro más desastrosos. Por esta razón, además de otorgar licencias a farmacéuticos, operadores de grúas y otros profesionales cuyos errores pueden tener consecuencias fatales, debemos obligar a los desarrolladores de sistemas de Inteligencia Artificial a encontrar persistentemente las debilidades de sus productos y capacitar a quienes los van a operar.
Entonces la consigna es que no nos hagamos amigos de la inteligencia artificial, no la antropomorficemos, no le demos un cuerpo o rostro humano, advierte Dennett, porque es solo una herramienta irreflexiva. “La capacidad de resistir la tentación de considerar a alguien que parece ser una persona como tal, es una habilidad vil que se asocia con el racismo o especismo. Muchas personas encontrarán moralmente repugnante cultivar una actitud tan despiadadamente escéptica». Pero es absolutamente necesario que no cedamos a las máquinas decisiones, de las que ellas no pueden responsabilizarse por nosotros.
Venki Ramakrishnan, biólogo ganador del Premio Nobel de la Universidad de Cambridge y actual presidente de la Royal Society, nos recuerda una consecuencia más del uso de la inteligencia artificial en la actividad de pensar. Los procesos abarcados por este hecho no son transparentes. Entonces, cuando se utilizan para analizar datos del mundo real y formular hipótesis científicas basadas en ellos, lo cual sucede con cada vez mayor frecuencia, al final no se sabe de dónde realmente provienen estas hipótesis. Resultan ser reales, pero a veces incomprensibles para las personas. Las máquinas generan pruebas matemáticas que ningún matemático puede entender. Este enfoque, llamado modelado generativo, se está convirtiendo ahora en la tercera forma de hacer ciencia, junto con la observación y la simulación. Sin embargo, ¿queremos esta clase de ciencia? Las opiniones están divididas.
¿Se utilizará la Inteligencia Artificial como arma letal?
Para que nuestro futuro sea más humano y no tan artificial, se puede tomar precauciones más o menos parecidas a las que se toman en cuanto a la seguridad biológica. En 1975, en el Parque Estatal Asilomar, California, se organizó una conferencia histórica sobre métodos de manipulación genética. Para que la nueva entonces tecnología no se saliera de control ni provocara una mezcla de genes de manera arriesgada, se adoptaron una serie de limitaciones, que la humanidad ha mantenido consistentemente hasta el día de hoy.
Hace dos años, en el mismo lugar, Max Tegmark organizó una conferencia similar, esta vez dedicada a la inteligencia artificial. Entre los participantes se encontraba un porcentaje significativo de la élite tecnológica mundial. Se han definido veintitrés límites recomendados para el desarrollo de la Investigación Artificial, especialmente en cuanto a su desarrollo de en el ámbito militar, es decir, con las armas autónomas. Más o menos al mismo tiempo, comenzaron a aparecer las primeras publicaciones especializadas sobre la seguridad de la inteligencia artificial en las revistas científicas. Sus autores trabajan para los actores comerciales más grandes del mercado de la Inteligencia Artificial, los que generalmente protegen sus derechos intelectuales y compiten ferozmente entre sí en diferentes campos. Algo realmente está cambiando.
Deberíamos tratar con la inteligencia artificial tal como lo hacemos, o al menos estamos empezando a tratar: tanto con las corporaciones como con los gobiernos, es decir, tratar de comprobar todo lo que sea posible. Deberíamos poder controlar qué datos se procesan y qué datos se reciben. Suena trivial, porque el problema para muchos es en el fondo bastante trivial.
¿La Inteligencia Artificial hará feliz a la humanidad?
Max Tegmark escribió hace unos años un fascinante libro titulado «Life 3.0», en cuya introducción describió una aterradora visión del futuro. Era la historia de la primera máquina ultrainteligente llamada Prometheus. Según esta visión, la inteligencia artificial lanzada por los creadores se apodera de Internet, tomando el control de todas las esferas de la vida humana. Sin embargo, no hace alarde de su presencia. Para obtener el control total, necesita apoyo total. Así, moldea la opinión pública, educa a los políticos simpatizantes, gana la simpatía de los sucesivos grupos, clases y entornos desfavorecidos, elimina las desigualdades económicas, calma el globo terráqueo de los conflictos, repara el clima y, en definitiva, se convierte en un gran cerebro omnicomprensivo, y así sucesivamente…
Se plantea la pregunta que si a costa de perder una parte de nuestra libertad habría la paz universal, el desarrollo sostenible, la inhibición de la dominación del capital y el eterno cuidado de la humanidad de los males, todo hecho por un ser con una perspectiva más amplia que la visión específica y particular del ser humano ¿Qué hay de terrible en eso?
¿Qué es la Inteligencia Artificial?
Se podría responder que es la capacidad de resolver problemas complejos utilizando algoritmos informáticos. Sin embargo, esto no deja de ser más que una declaración de fe que una realidad, porque los problemas que resuelve la inteligencia artificial son hasta ahora un juego de niños, mientras que los algoritmos que utiliza para tal fin son muy complicados y complejos.
La idea de crear una inteligencia similar a la humana es tan antigua como el mundo. Sin embargo, le tomó siglos pasar de la zona de los cuentos de hadas -los Talos robóticos de los mitos griegos, simples máquinas de juguete- a la zona de la filosofía de Gottfried Leibniz, quien comenzó a filosofar sobre los unos y los ceros, que es el lenguaje de las computadoras de hoy. El trabajo del genio alemán fue traído hasta nuestros días por los matemáticos: el británico Alan Turing y el estadounidense John von Neumann, padres de la teoría de las computadoras que conocemos hoy. Los primeros experimentos con inteligencia artificial comenzaron en la década de 1950, cuando aparecieron los primeros mainframes, aquellas primeras computadoras que eran dispositivos del tamaño de una locomotora. Esta es la era de Claude Shannon, el creador de la teoría de la información, Norbert Wiener y su cibernética, la época de las redes neuronales, es decir, sistemas modelados directamente en lo que conocíamos sobre el cerebro. Los años siguientes estuvieron marcados por un rápido desarrollo, el optimismo estadounidense, los informáticos cognitivos Marvin Minsky y John McCarthy (el que propuse el nombre) e inversores ávidos de beneficios. El final de la década de 1970 fue una época de decepción con los resultados, seguida de nuevo auge y luego otra crisis. Hoy vivimos en la era del aprendizaje automático, big data y computadoras ultrarrápidas, y el siguiente aumento de gastos y expectativas.
La inteligencia artificial es una sinécdoque de un enorme campo de la informática. Esto se evidencia por el volumen del correspondiente artículo de Wikipedia, especialmente en la versión en inglés, que es mucho más extensa que la descripción de la Segunda Guerra Mundial. Hay mucha filosofía, métodos, tipos de sistemas, escuelas de pensamiento y programación dentro de este concepto. Su parte común son algoritmos capaces de aprender y corregir sus propios errores. La inteligencia artificial aprende de ejemplos existentes sugeridos por humanos, y en el proceso de adquirir experiencia también es corregida por el factor humano. Entonces es todavía muy dependiente.
La inteligencia artificial puede ser estacionaria, como la que se usa en los sistemas de reconocimiento de signos, reconocimiento/traducción de voz, búsqueda de síntomas tempranos de enfermedades, simulación de paisajes y agentes (unidades independientes) en juegos de computadora, formulación de hipótesis en matemáticas y física. A veces se instala en máquinas móviles, donde sondea el entorno circundante, reacciona y toma medidas para lograr los objetivos establecidos por el usuario humano, como en los automóviles autónomos o los drones militares.
Por razones prácticas, la inteligencia artificial a veces se distingue de la Inteligencia Artificial general o «real». Mientras que la primera se especializa en estrechos rangos de tareas, de lo que existe y funciona bien, se pretende que la segunda ha de caracterizarse por una versatilidad similar a la de un ser humano: esta Inteligencia Artificial todavía no existe, y no pronto no existirá.