La historia de la Inteligencia Artificial
¿Pueden pensar las máquinas?
En la primera mitad de la 20 ª siglo, la ciencia ficción familiarizado con el mundo el concepto de robots de inteligencia artificial. Comenzó con el hombre de hojalata “sin corazón” del Mago de Oz y continuó con el robot humanoide que se hizo pasar por María en Metrópolis.. En la década de 1950, teníamos una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial (IA) asimilado culturalmente en sus mentes. Una de esas personas fue Alan Turing, un joven polímato británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos usen la información disponible y la razón para resolver problemas y tomar decisiones, entonces ¿por qué las máquinas no pueden hacer lo mismo? Este fue el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que discutió cómo construir máquinas inteligentes y cómo probar su inteligencia.
Regístrate en la Masterclass online de manera gratuita y conoce más de las técnicas y las tendencias del Procesamiento Digital de Imágenes con Inteligencia Artificial. El evento será el jueves 9 de diciembre de 2021 a las 19:00 horas CDMX.
Haciendo posible la búsqueda
Lamentablemente, hablar es barato. ¿Qué le impidió a Turing llegar al trabajo en ese mismo momento? Primero, las computadoras necesitaban cambiar fundamentalmente. Antes de 1949, las computadoras carecían de un requisito previo clave para la inteligencia: no podían almacenar comandos, solo ejecutarlos. En otras palabras, a las computadoras se les podría decir qué hacer, pero no podían recordar lo que hicieron. En segundo lugar, la informática era extremadamente costosa . A principios de la década de 1950, el costo de arrendar una computadora ascendía a $ 200,000 por mes. Solo las universidades de prestigio y las grandes compañías tecnológicas pueden permitirse el lujo de diluirse en estas aguas desconocidas. Se necesitaba una prueba de concepto, así como la defensa de personas de alto perfil para persuadir a las fuentes de financiación de que valía la pena buscar inteligencia artificial.
La conferencia que lo comenzó todo
Cinco años después, la prueba de concepto se inicializó a través de Allen Newell, Cliff Shaw y Herbert Simon’s, Logic Theorist . The Logic Theorist fue un programa diseñado para imitar las habilidades de resolución de problemas de un ser humano y fue financiado por la Corporación de Investigación y Desarrollo (RAND). Muchos lo consideran el primer programa de inteligencia artificial y se presentó en el Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial(DSRPAI) organizado por John McCarthy y Marvin Minsky en 1956. En esta conferencia histórica, McCarthy, imaginando un gran esfuerzo de colaboración, reunió a los mejores investigadores de diversos campos para una discusión abierta sobre inteligencia artificial, el término que él acuñó en el mismo momento. evento. Lamentablemente, la conferencia no cumplió con las expectativas de McCarthy; la gente iba y venía a su antojo, y no había acuerdo sobre los métodos estándar para el campo. A pesar de esto, todos se alinearon de todo corazón con el sentimiento de que la IA era alcanzable. La importancia de este evento no puede ser socavada ya que catalizó los próximos veinte años de investigación de IA.
Montaña rusa del éxito y los contratiempos
De 1957 a 1974, la IA floreció. Las computadoras podían almacenar más información y llegar a ser más rápidas, más baratas y más accesibles. Los algoritmos de aprendizaje automático también mejoraron y las personas mejoraron al saber qué algoritmo aplicar a su problema. Las primeras demostraciones, como el Solucionador de problemas generales de Newell y Simon y ELIZA de Joseph Weizenbaum, mostraron ser prometedoras hacia los objetivos de resolución de problemas y la interpretación del lenguaje hablado respectivamente. Estos éxitos, así como la defensa de los principales investigadores (es decir, los asistentes del DSRPAI) convencieron a las agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para financiarInvestigación de IA en varias instituciones. El gobierno estaba particularmente interesado en una máquina que pudiera transcribir y traducir el lenguaje hablado, así como el procesamiento de datos de alto rendimiento. El optimismo era alto y las expectativas eran aún mayores. En 1970, Marvin Minsky le dijo a la revista Life: “de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”. Sin embargo, aunque la prueba de principio básica estaba allí, todavía quedaba un largo camino por recorrer antes de que se pudieran lograr los objetivos finales del procesamiento del lenguaje natural, el pensamiento abstracto y el auto reconocimiento.
Romper la niebla inicial de IA reveló una montaña de obstáculos. La mayor fue la falta de poder computacional para hacer algo sustancial: las computadoras simplemente no podían almacenar suficiente información o procesarla lo suficientemente rápido. Para comunicarse, por ejemplo, uno necesita conocer el significado de muchas palabras y comprenderlas en muchas combinaciones. Hans Moravec, un estudiante de doctorado de McCarthy en ese momento, declaró que “las computadoras todavía eran millones de veces demasiado débiles para exhibir inteligencia”. A medida que la paciencia disminuyó, también lo hicieron los fondos, y la investigación se detuvo lentamente durante diez años.
En la década de 1980, la IA fue reactivada por dos fuentes: una expansión del kit de herramientas algorítmicas y un aumento de fondos. John Hopfield y David Rumelhart popularizaron las técnicas de “aprendizaje profundo” que permitieron a las computadoras aprender usando la experiencia. Por otro lado, Edward Feigenbaum introdujo sistemas expertos que imitaban el proceso de toma de decisiones de un experto humano. El programa le preguntaría a un experto en un campo cómo responder en una situación dada, y una vez que se haya aprendido esto para prácticamente cualquier situación, los no expertos podrían recibir asesoramiento de ese programa. Los sistemas expertos fueron ampliamente utilizados en las industrias. El gobierno japonés financió en gran medida los sistemas expertos y otros esfuerzos relacionados con la IA como parte de su proyecto informático de quinta generación(FGCP). De 1982 a 1990, invirtieron $ 400 millones de dólares con el objetivo de revolucionar el procesamiento informático, implementar la programación lógica y mejorar la inteligencia artificial. Lamentablemente, la mayoría de los ambiciosos objetivos no se cumplieron. Sin embargo, se podría argumentar que los efectos indirectos del FGCP inspiraron a una joven y talentosa generación de ingenieros y científicos. En cualquier caso, la financiación del FGCP cesó y la IA quedó fuera del centro de atención.
Irónicamente, en ausencia de fondos gubernamentales y exageraciones públicas, la IA prosperó. Durante las décadas de 1990 y 2000, se lograron muchos de los objetivos históricos de la inteligencia artificial. En 1997, el actual campeón mundial de ajedrez y gran maestro Gary Kasparov fue derrotado por Deep Blue , un programa informático de ajedrez de IBM . Este partido altamente publicitado fue la primera vez que un campeón mundial de ajedrez perdió ante una computadora y sirvió como un gran paso hacia un programa de toma de decisiones artificialmente inteligente. En el mismo año, el software de reconocimiento de voz, desarrollado por Dragon Systems, se implementó en Windows. Este fue otro gran paso adelante pero en la dirección del esfuerzo de interpretación del lenguaje hablado. Parecía que no había un problema que las máquinas no pudieran manejar. Incluso la emoción humana era un juego justo como lo demuestra Kismet , un robot desarrollado por Cynthia Breazeal que podía reconocer y mostrar emociones.
El tiempo cura todas las heridas
No nos hemos vuelto más inteligentes acerca de cómo codificamos la inteligencia artificial, entonces, ¿qué cambió? Resulta que el límite fundamental del almacenamiento de la computadora que nos frenaba hace 30 años ya no era un problema. La Ley de Moore , que estima que la memoria y la velocidad de las computadoras se duplica cada año, finalmente se puso al día y, en muchos casos, superó nuestras necesidades. Así es precisamente cómo Deep Blue pudo derrotar a Gary Kasparov en 1997, y cómo Alpha Go de Google pudo derrotar al campeón chino de Go, Ke Jie, hace solo unos meses. Ofrece una pequeña explicación a la montaña rusa de la investigación de IA; saturamos las capacidades de la IA al nivel de nuestra potencia computacional actual (almacenamiento de la computadora y velocidad de procesamiento), y luego esperamos que la Ley de Moore se recupere nuevamente.
La inteligencia artificial está en todas partes
Ahora vivimos en la era de los ” grandes datos “, una era en la que tenemos la capacidad de recopilar enormes sumas de información demasiado engorrosas para que una persona las procese. La aplicación de la inteligencia artificial a este respecto ya ha sido bastante fructífera en varias industrias, como la tecnología, la banca , el marketing y el entretenimiento . Hemos visto que incluso si los algoritmos no mejoran mucho, los grandes datos y la informática masiva simplemente permiten que la inteligencia artificial aprenda a través de la fuerza bruta. Puede haber evidencia de que la ley de Moore se está desacelerando un poco, pero el aumento de datos ciertamente no ha perdido impulso. Los avances en ciencias de la computación, matemáticas o neurociencia sirven como salidas potenciales a través del techo de la Ley de Moore.
El futuro
Entonces, ¿qué hay para el futuro? En el futuro inmediato, el lenguaje AI se parece a la próxima gran cosa. De hecho, ya está en marcha. No recuerdo la última vez que llamé a una empresa y hablé directamente con un humano. ¡En estos días, las máquinas incluso me están llamando! Uno podría imaginar interactuar con un sistema experto en una conversación fluida, o tener una conversación en dos idiomas diferentes traducida en tiempo real. También podemos esperar ver autos sin conductoren el camino en los próximos veinte años (y eso es conservador). A largo plazo, el objetivo es la inteligencia general, que es una máquina que supera las capacidades cognitivas humanas en todas las tareas. Esto está en la línea del robot inteligente que estamos acostumbrados a ver en las películas. Para mí, parece inconcebible que esto se logre en los próximos 50 años. Incluso si la capacidad está ahí, las preguntas éticas servirían como una fuerte barrera contra la fructificación. Cuando llegue ese momento (pero mejor incluso antes de que llegue el momento), tendremos que tener una conversación seria sobre la política y la ética de la máquina (irónicamente, ambos sujetos fundamentalmente humanos), pero por ahora, permitiremos que la IA mejore constantemente y se vuelva loco en sociedad.
Néstor Wario – Brita Inteligencia Artificial en México
1 Comment