Historia de la inteligencia artificial

Como evento fundacional de la inteligencia artificial como campo académico que aplica Dartmouth Conference en el verano de 1956 en Dartmouth College en Hanover (New Hampshire) , un taller de seis semanas titulado Dartmouth Summer Research Project on Artificial Intelligence , organizado por John McCarthy como parte del proyecto de investigación financiado por la Fundación Rockefeller . El término “inteligencia artificial” apareció por primera vez en la aplicación y, además del propio McCarthy, participaron Marvin Minsky , Nathaniel Rochester y Claude Elwood Shannon .

prehistoria

Sin embargo, la idea de que la inteligencia humana o los procesos del pensamiento humano en general pueden ser automatizados o mecanizados, que los humanos podrían diseñar y construir una máquina que muestre un comportamiento inteligente de una forma u otra , es mucho más antigua. La fuente más antigua se refiere principalmente a Julien Offray de La Mettrie y su obra L'Homme Machine , publicada en 1748 . La idea del demonio de Laplace , que lleva el nombre del matemático, físico y astrónomo francés Pierre-Simon Laplace, también puede contarse entre los precursores teóricos de la inteligencia artificial, ya que este diseño se basa en el concepto de modelo de que todo el universo sigue el modelo. reglas de una máquina mecánica - como un reloj, por así decirlo - y esta idea naturalmente también incluye al ser humano y su espíritu, su inteligencia.

Autómatas y robots históricos

En varios momentos de la historia hay informes de máquinas mecánicas para ciertas actividades que se construyeron en una vivienda más o menos parecida a la humana y, por lo tanto, hasta cierto punto, deberían transmitir la ilusión de un ser humano artificial. En algunos casos también se trató de atracciones de feria hasta figuras como C-3PO de Star Wars .

Homúnculos, Golem y otras personas artificiales.

Además de estos autómatas, que al menos sus diseñadores y constructores generalmente entendían como máquinas con capacidades mecánicas limitadas, también había diseños teóricos o literarios de seres vivos creados artificialmente que se suponía que eran similares a los humanos en términos de sus capacidades y apariencia. Una idea general de un homúnculo ya se describió en la antigüedad, un plan para la supuesta producción de un homúnculo se puede encontrar en el texto De natura rerum (1538), que generalmente se atribuye a Paracelso . Otros ejemplos son la leyenda judía del golem en sus diversas variantes o la novela Frankenstein de Mary Shelley .

Inteligencia artificial en la literatura

El filósofo y autor de ciencia ficción polaco Stanisław Lem ilustró esta idea en numerosas obras de ficción.

Fundamentos teóricos en el siglo XX

Basado en el trabajo de Alan Turing , incluido el artículo Maquinaria e inteligencia de la computación , Allen Newell (1927–1992) y Herbert A. Simon (1916–2001) de la Universidad Carnegie Mellon en Pittsburgh formularon la hipótesis del sistema de símbolos físicos . Según ella, el pensamiento es procesamiento de información y el procesamiento de información es un cálculo, una manipulación de símbolos. El cerebro como tal no es importante cuando se piensa: "La inteligencia es la mente implementada por cualquier tipo de materia con patrones". Esta opinión de que la inteligencia es independiente de la sustancia portadora es compartida por los representantes de la sólida investigación de la IA . Para Marvin Minsky (1927-2016) del Instituto de Tecnología de Massachusetts (MIT), uno de los pioneros de la IA, “el objetivo de la IA es superar la muerte”. El especialista en robots Hans Moravec (* 1948) de la Universidad Carnegie Mellon describió el escenario de la evolución de la vida posbiológica en su libro Mind Children en 1988 : un robot transfiere el conocimiento almacenado en el cerebro humano a una computadora para que la biomasa de el cerebro se vuelve superfluo y comienza una era posthumana en la que se puede acceder al conocimiento almacenado durante cualquier período de tiempo.

Discusión sobre la posibilidad de la inteligencia artificial

Desde el comienzo de la discusión científica y filosófica sobre la inteligencia artificial, se ha debatido en particular la posibilidad de una inteligencia artificial "fuerte". Incluso se cuestionó si los sistemas artificiales que se asemejan a los humanos o son similares en un sentido que aún no se ha determinado pueden incluso imaginarse sin contradicción.

El libro de Hubert Dreyfus The Limits of Artificial Intelligence se remonta a 1972. Con su hermano Stuart E. Dreyfus, describió los "límites de la máquina pensante" en 1986.

Por otro lado, Karl Popper (1977) se refiere a una tesis de Alan Turing, quien una vez dijo: "Diga exactamente en qué cree que una persona debería ser superior a una computadora, y construiré una computadora que refute su creencia". Pero vuelve a poner esta afirmación en perspectiva al recomendar: "No debemos aceptar el desafío de Turing; porque cualquier definición suficientemente precisa podría usarse en principio para programar una computadora ”. Y también señala que nadie ha sido capaz de formular una definición de inteligencia que sea aceptada por todos los expertos relevantes para la inteligencia humana, y en consecuencia también una que sea no generalmente aceptado Existe un procedimiento mediante el cual la presencia o el grado de expresión de la “inteligencia” en los seres humanos, y posiblemente también en un sistema artificial, podría comprobarse o medirse objetivamente.

Sin embargo, la discusión sobre si puede existir una inteligencia artificial que sea igual o incluso superior a la inteligencia humana se caracteriza por una asimetría fundamental:

  • Autores como los hermanos Dreyfus sostienen que la inteligencia artificial no puede existir en el sentido estricto de IA fuerte , i. H. En el sentido lógico-formal representan un enunciado universal (con signo negativo) y los argumentos y consideraciones que citan para esta tesis pueden ser atacados, discutidos o posiblemente incluso refutados en muchos lugares.
  • Alan Turing, por otro lado, solo afirma que, bajo ciertas condiciones o requisitos, algo es posible y deja que otros cumplan inicialmente con estos requisitos. Mientras esto no haya sucedido aún, la afirmación de Turing no puede ser contrastada y, en consecuencia, tampoco puede ser falsificada, y en este sentido, estrictamente hablando, según el criterio de cientificidad formulado por Popper , no es una declaración científica .

Para decidir si un sistema técnico tiene una inteligencia similar a la de los humanos, a menudo se hace referencia a una sugerencia de Alan Turing, que se conoce como la prueba de Turing . El propio Allan Turing solo esbozó la idea general que podría ser la base de tal prueba: si una persona no interactúa con dos "socios", uno de los cuales es otra persona y el otro es un sistema técnico artificial (más) puede encontrar Para distinguir o distinguir cuál de los socios es el ser humano y cuál es la computadora, ya no se podría negar al sistema técnico la propiedad de ser también inteligente. (Turing inicialmente dejó abiertos detalles más precisos; por cierto, por supuesto, está claro que la interacción en una situación de prueba de este tipo debe diseñarse de tal manera, por ejemplo, en forma de una conversación telefónica o una pregunta escrita y ... respuesta, que ninguna información extraña puede falsificar la evaluación).

Sin embargo, cuando Alan Turing hizo esta sugerencia, alrededor de 1950, el campo de la inteligencia artificial ni siquiera existía y, en consecuencia, no había distinción entre IA fuerte y débil, y ciertamente tampoco la disputa sobre si era una IA fuerte en el más estrecho sentido Sentido en absoluto. Por supuesto, hubo varios intentos posteriores de concretar la idea de Turing y de implementarla en la práctica, pero todos fueron criticados o no reconocidos por deficiencias en la conceptualización - y también en la implementación práctica.

Al mismo tiempo, la potencia informática de las computadoras ha aumentado a un ritmo exponencial durante más de 50 años: en un artículo de 1965, Gordon Moore predijo que se duplicaría cada dos años , inicialmente solo en función de la densidad de empaquetado de los componentes en la computadora. chips e inicialmente solo para el período hasta 1975. Bajo el nombre de Ley de Moore , este pronóstico se convirtió en una regla aproximada sobre cómo se desarrollaría el rendimiento de los sistemas informáticos; En 2015, esta ley celebró su período de vigencia de 50 años (durante este tiempo se duplicó 25 veces, es decir, un aumento en el desempeño por el factor ).

En este contexto y debido a que el rendimiento del cerebro humano es casi constante, ya tenemos el término para el momento en que el rendimiento de las computadoras podría algún día superar al del cerebro humano y, por lo tanto, la singularidad tecnológica de la inteligencia artificial . En términos puramente técnicos, en términos de la cantidad de operaciones por unidad de tiempo y el espacio de almacenamiento disponible, las costosas supercomputadoras de hoy superan claramente el rendimiento estimado del cerebro humano, pero los cerebros humanos todavía se consideran (2017) superiores en tareas como como creatividad, reconocimiento de patrones y procesamiento del lenguaje. En el verano de 2017, los investigadores chinos Feng Liu, Yong Shi y Ying Liu realizaron pruebas de CI con IA débiles como Google KI o Siri de Apple y otras que eran accesibles al público y de forma gratuita. Estos KI alcanzaron un máximo de alrededor de 47, que es inferior al de un niño de seis años en el primer grado. Un adulto tiene una media de 100. En 2014 se llevaron a cabo pruebas similares en las que las IA aún alcanzaron un máximo de 27.

Direcciones de investigación y fases de la IA

El informático Hans-Werner Hein 1986 sobre la mala imagen de la IA

La fase inicial de la IA se caracterizó por expectativas casi ilimitadas con respecto a la capacidad de las computadoras para "resolver tareas que requieren inteligencia para resolverlas si son realizadas por humanos". Herbert Simon predijo en 1957, entre otras cosas, que en los próximos diez años una computadora se convertiría en campeón mundial de ajedrez y descubriría y probaría una importante proposición matemática. Estas predicciones no se hicieron realidad. Simon repitió la predicción en 1990, pero sin especificar la hora. Después de todo, el sistema Deep Blue desarrollado por IBM logró vencer al campeón mundial de ajedrez Garri Kasparov en seis juegos en 1997 . En 2011, el programa informático Watson ganó el concurso Jeopardy! contra los dos jugadores más exitosos hasta la fecha.

En la década de 1960, Newell y Simon desarrollaron General Problem Solver , un programa que debería poder resolver cualquier problema utilizando métodos simples. Después de casi diez años de desarrollo, el proyecto finalmente se suspendió. En 1958, John McCarthy propuso llevar todo el conocimiento humano a una forma de representación homogénea y formal, la lógica de predicados de primer nivel.

Árbol de trigo: ELIZA

A finales de la década de 1960, Joseph Weizenbaum (1923-2008) del MIT desarrolló el programa ELIZA utilizando un proceso relativamente simple , en el que se simula el diálogo entre un psicoterapeuta y un paciente. El impacto del programa fue abrumador. El propio Weizenbaum se sorprendió de que se pueda transmitir la ilusión de una pareja conmovedora a las personas de una manera relativamente simple. "Si malinterpreta el programa, puede considerarlo una sensación", dijo Weizenbaum más tarde sobre ELIZA. La IA logró el éxito en varias áreas, como los juegos de estrategia como el ajedrez y las damas, el procesamiento de símbolos matemáticos, la simulación de robots, la demostración de teoremas lógicos y matemáticos y, finalmente , los sistemas expertos . En un sistema experto, el conocimiento basado en reglas de un tema en particular está representado formalmente. Para preguntas específicas, el sistema también aplica estas reglas en combinaciones que los expertos humanos no tienen en cuenta. Se pueden mostrar las reglas utilizadas para resolver el problema ; H. el sistema puede "explicar" su resultado. Se pueden agregar, modificar o eliminar elementos de conocimiento individuales; Los sistemas expertos modernos tienen interfaces de usuario cómodas para este propósito.

Sistemas expertos

Uno de los sistemas expertos más conocidos fue el MYCIN desarrollado por T. Shortliffe en la Universidad de Stanford a principios de la década de 1970 . Se utilizó para respaldar las decisiones de diagnóstico y terapia para enfermedades infecciosas de la sangre y meningitis . Una evaluación confirmó que sus decisiones son tan buenas como las de un experto en el campo en cuestión y mejores que las de un no experto. Sin embargo, cuando se le proporcionaron datos sobre una enfermedad del cólera , una enfermedad infecciosa intestinal y no de la sangre, el sistema reaccionó con sugerencias diagnósticas y terapéuticas para una enfermedad infecciosa de la sangre: MYCIN no reconoció los límites de su competencia. A esto se le llama efecto acantilado y meseta. Es típico de los sistemas expertos, es decir, los programas informáticos que se utilizan para el apoyo al diagnóstico (sistemas de apoyo a la toma de decisiones médicas) y están altamente especializados en un campo de conocimiento limitado. En la década de 1980, paralelamente a los avances significativos en hardware y software, a la IA se le asignó el papel de una tecnología clave, particularmente en el área de sistemas expertos. Se esperaba una variedad de aplicaciones industriales, y también se esperaba que el trabajo humano “monótono” (y sus costos) fueran reemplazados por sistemas controlados por IA. Sin embargo, después de que no se pudieron cumplir muchas previsiones, la financiación de la industria y la investigación redujo su compromiso. Este período de disminución de las expectativas y las inversiones se conoce como invierno de IA .

Aprendizaje automático y redes neuronales

Los sistemas expertos y otros sistemas basados en bases de datos de conocimientos solo han tenido un éxito moderado, ya que ha demostrado ser demasiado difícil traducir manualmente los conocimientos necesarios en reglas formales. El aprendizaje automático evita esta debilidad . El sistema informático aprende de forma independiente utilizando los datos disponibles y, por lo tanto, también es capaz de reconocer relaciones ocultas que una persona no habría tenido en cuenta. Los métodos clásicos aprenden una función de salida utilizando características extraídas previamente que se extrajeron de los datos de entrada mediante programación manual. Aquí, sin embargo, surgió un problema similar al de los sistemas expertos, que la selección manual no siempre conduce a un resultado óptimo. Las redes neuronales artificiales (ANN) son actualmente una estructura exitosa para el aprendizaje automático . Se basan en la capacidad de aprender usted mismo las características necesarias a partir de los datos sin procesar , por ejemplo, directamente de las imágenes de la cámara.

Históricamente, las primeras ANN se desarrollaron como modelos lineales como la celda McCulloch-Pitts en 1943 y el modelo Adaline en 1959. Con base en la neurofisiología , se analizó la arquitectura de la información del cerebro humano y animal. La neuroinformática se ha desarrollado como una disciplina científica para investigar estos procesos . Las debilidades en el modelado de incluso funciones lógicas simples como el XOR por estos modelos lineales llevaron inicialmente a un rechazo de las RNA y los modelos inspirados biológicamente en general.

Gracias al desarrollo de la no - lineal, de múltiples - capa , doblando las redes neuronales y los métodos de formación necesarios , sino también debido a la disponibilidad del hardware de alto rendimiento y grandes conjuntos de datos de entrenamiento requeridos para ello (por ejemplo, IMAGEnet ), las RNA han logrado éxitos en numerosos concursos de reconocimiento de patrones desde 2009 y dominaron el método clásico con la selección manual de las características. Las redes neuronales multicapa utilizadas para esto también se resumen bajo la palabra clave aprendizaje profundo .

Además, las RNA también se utilizan como modelos generativos , es decir, para generar imágenes, videos o grabaciones de sonido que parecen reales, lo que fue posible con una calidad cada vez mejor, en particular, con la invención de las Redes Adversarias Generativas en 2014. Los resultados de un trabajo basado en este de 2017, que generó imágenes imaginarias de rostros, fueron calificados por círculos especializados como "impresionantemente realistas". Con DeepFakes , los resultados se dieron a conocer a un público más amplio a partir de 2017. En particular, se discutió la cuestión de hasta qué punto se puede seguir confiando en la evidencia de fotos o videos si es posible generar automáticamente imágenes de aspecto real.

Compañero de juego en juegos de mesa y videojuegos

Mientras tanto, han surgido numerosas subdisciplinas en IA, como lenguajes y conceptos especiales para la representación y aplicación del conocimiento, modelos para cuestiones de revisabilidad, incertidumbre e inexactitud y procesos de aprendizaje automático. La lógica difusa ha demostrado ser otra forma de inteligencia artificial débil establecida, por ejemplo, en los controles de las máquinas. Otras aplicaciones de inteligencia artificial exitosas se encuentran en las áreas de interfaces de lenguaje natural, sensores , cibernética y robótica .

En marzo de 2016, el sistema AlphaGo derrotó al surcoreano Lee Sedol, uno de los mejores jugadores de Go del mundo. El programa desarrollado por DeepMind había evaluado previamente millones de juegos archivados con aprendizaje profundo y también jugó contra sí mismo varios millones de veces.

En agosto de 2017, una inteligencia artificial de OpenAI derrotó a algunos de los mejores jugadores profesionales del mundo en este campo (incluido el jugador profesional Danylo "Dendi" Ishutin) en un torneo de 24 millones de dólares para el juego de computadora Dota 2 . Dota 2 se considera uno de los videojuegos más complejos de la historia, más complejo que Go o Chess. Sin embargo, Dota 2 se jugó aquí en modo uno a uno y no en el modo de equipo más complejo. OpenAI declaró que la IA solo tardó cuatro meses en alcanzar este nivel de habilidad. La IA fue entrenada compitiendo contra sí misma una y otra vez. A la IA se le dio el mismo campo de visión que el jugador humano y solo se le permitió realizar un número limitado de acciones al mismo tiempo. El objetivo de OpenAI ahora es desarrollar una IA que pueda derrotar a los mejores jugadores humanos en el modo de equipo.

Audio

enlaces web

Evidencia individual

  1. ^ Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial . (McCarthy et al.: Solicitud de financiación, agosto de 1955, p. 1) ( Memento del 30 de septiembre de 2008 en Internet Archive )
  2. Allen Newell, Herbert A. Simon: Ciencias de la computación como investigación empírica: símbolos y búsqueda . En: Comunicaciones de la ACM . Vol. 19, No. 3, marzo de 1976, págs. 113–126 Texto (PDF)
  3. Hubert L. Dreyfus: Los límites de la inteligencia artificial. Lo que las computadoras no pueden . Athenaeum, Königstein 1985 [Engl. Original: Lo que las computadoras no pueden hacer: Los límites de la inteligencia artificial . 1972]
  4. Hubert L. Dreyfus, Stuart E. Dreyfus: Inteligencia artificial: desde los límites de la máquina pensante y el valor de la intuición . Rowohlt rororo, Reinbek 1986 (Original en inglés: Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer . Free Press, Nueva York 1986)
  5. KR Popper, JC Eccles: El yo y su cerebro . Piper, Munich 1982, p. 257 (original en inglés: The Self and Its Brain . Springer, Heidelberg 1977)
  6. GE Moore: Abarrotar más componentes en circuitos integrados . En: Electrónica . cinta 38 , no. 8 , 1965 ( monolithic3d.com [PDF; 802 kB ]).
  7. Big data: Computadora vs. Cerebro humano | Blog de MS&E 238. Consultado el 30 de agosto de 2020 .
  8. Google AI es dos veces más inteligente que Siri, pero un niño de seis años supera a ambos . 5 de octubre de 2017.
  9. Minsky
  10. ^ Documental Plug & Pray con Joseph Weizenbaum y Raymond Kurzweil
  11. ^ A b c d Ian Goodfellow, Yoshua Bengio, Aaron Courville: Aprendizaje profundo . MIT Press, 2016, ISBN 978-0-262-03561-3 , 1 Introducción, págs. 1 ff . ( deeplearningbook.org ).
  12. Martin Giles: The GANfather: El hombre que le ha dado a las máquinas el don de la imaginación . En: MIT Technology Review . ( technologyreview.com [consultado el 14 de noviembre de 2018]).
  13. David Silver, Aja Huang et al.: Mastering the Game of Go with Deep Neural Networks and Tree Search (PDF) Google DeepMind y Google, 27 de enero de 2016, consultado el 10 de diciembre de 2018
  14. Eike Kühl: Inteligencia artificial: ahora ha derrotado incluso a un jugador profesional En: zeit.de , 19 de agosto de 2017, consultado el 25 de diciembre de 2019.