¿Cómo funciona la inteligencia artificial?

Enfoques y conceptos de IA

Menos de una década después de romper la máquina de cifrado nazi Enigma y ayudar a las Fuerzas Aliadas a ganar la Segunda Guerra Mundial, el matemático Alan Turing cambió la historia por segunda vez con una simple pregunta: “¿Pueden pensar las máquinas?”

El artículo de Turing “Computing Machinery and Intelligence” (1950), y su posterior Turing Test, establecieron el objetivo y la visión fundamentales de la inteligencia artificial.

En esencia, la IA es la rama de la informática que tiene como objetivo responder afirmativamente a la pregunta de Turing. Es el esfuerzo por replicar o simular la inteligencia humana en las máquinas.

El objetivo expansivo de la inteligencia artificial ha dado lugar a muchas preguntas y debates. Tanto es así, que ninguna definición singular del campo es universalmente aceptada.

¿La principal limitación para definir la IA como simplemente “construir máquinas inteligentes” es que en realidad no explica qué es la inteligencia artificial? ¿Qué hace que una máquina sea inteligente? La IA es una ciencia interdisciplinaria con múltiples enfoques, pero los avances en el aprendizaje automático y el aprendizaje profundo están creando un cambio de paradigma en prácticamente todos los sectores de la industria tecnológica.

En su innovador libro de texto Artificial Intelligence: A Modern Approach, los autores Stuart Russell y Peter Norvig abordan la cuestión unificando su trabajo en torno al tema de los agentes inteligentes en las máquinas. Con esto en mente, la IA es “el estudio de los agentes que reciben percepciones del entorno y realizan acciones”. (Russel y Norvig viii).

Norvig y Russell continúan explorando cuatro enfoques diferentes que históricamente han definido el campo de la IA:

  1. Pensar humanamente
  2. Pensar racionalmente
  3. Actuar humanamente
  4. Actuar racionalmente

Las dos primeras ideas se refieren a procesos de pensamiento y razonamiento, mientras que las otras se ocupan del comportamiento. Norvig y Russell se centran particularmente en los agentes racionales que actúan para lograr el mejor resultado, señalando que “todas las habilidades necesarias para la Prueba de Turing también permiten que un agente actúe racionalmente”. (Russel y Norvig 4).

Patrick Winston, profesor Ford de inteligencia artificial e informática en el MIT, define la IA como “algoritmos habilitados por restricciones, expuestos por representaciones que apoyan modelos dirigidos a bucles que unen el pensamiento, la percepción y la acción”.

Si bien estas definiciones pueden parecer abstractas para la persona promedio, ayudan a enfocar el campo como un área de la informática y proporcionan un plan para infundir a las máquinas y programas aprendizaje automático y otros subconjuntos de inteligencia artificial.

Los cuatro tipos de inteligencia artificial

 

Máquinas reactivas

Una máquina reactiva sigue los principios más básicos de IA y, como su nombre indica, solo es capaz de usar su inteligencia para percibir y reaccionar ante el mundo frente a ella. Una máquina reactiva no puede almacenar una memoria y, como resultado, no puede confiar en experiencias pasadas para informar la toma de decisiones en tiempo real.

Percibir el mundo directamente significa que las máquinas reactivas están diseñadas para completar solo un número limitado de tareas especializadas. Sin embargo, reducir intencionalmente la visión del mundo de una máquina reactiva no es ningún tipo de medida de reducción de costos, y en su lugar significa que este tipo de IA será más confiable y confiable: reaccionará de la misma manera a los mismos estímulos cada vez.

Un ejemplo famoso de máquina reactiva es Deep Blue, que fue diseñada por IBM en la década de 1990 como una supercomputadora que jugaba ajedrez y derrotó al gran maestro internacional Gary Kasparov en una partida. Deep Blue solo era capaz de identificar las piezas en un tablero de ajedrez y saber cómo se mueve cada una en función de las reglas del ajedrez, reconociendo la posición actual de cada pieza y determinando cuál sería el movimiento más lógico en ese momento. La computadora no estaba persiguiendo futuros movimientos potenciales de su oponente ni tratando de poner sus propias piezas en mejor posición. Cada giro se veía como su propia realidad, separada de cualquier otro movimiento que se hiciera de antemano.

Otro ejemplo de una máquina reactiva que juega es AlphaGo de Google. AlphaGo también es incapaz de evaluar futuros movimientos, pero confía en su propia red neuronal para evaluar los desarrollos del presente juego, dándole una ventaja sobre Deep Blue en un juego más complejo. AlphaGo también superó a los competidores de clase mundial del juego, derrotando al campeón Go Lee Sedol en 2016.

Aunque de alcance limitado y no se puede alterar fácilmente, la inteligencia artificial artificial reactiva puede alcanzar un nivel de complejidad y ofrece fiabilidad cuando se crea para cumplir tareas repetibles.

Memoria limitada

La inteligencia artificial de memoria limitada tiene la capacidad de almacenar datos y predicciones anteriores al recopilar información y sopesar las decisiones potenciales, esencialmente mirando al pasado en busca de pistas sobre lo que puede venir después. La inteligencia artificial de memoria limitada es más compleja y presenta mayores posibilidades que las máquinas reactivas.

La IA de memoria limitada se crea cuando un equipo entrena continuamente a un modelo en cómo analizar y utilizar nuevos datos o se construye un entorno de IA para que los modelos puedan entrenarse y renovarse automáticamente. Al utilizar IA de memoria limitada en el aprendizaje automático, se deben seguir seis pasos: se deben crear datos de entrenamiento, se debe crear el modelo de aprendizaje automático, el modelo debe ser capaz de hacer predicciones, el modelo debe ser capaz de recibir retroalimentación humana o ambiental, esa retroalimentación debe almacenarse como datos, y estos pasos deben reiterarse como un ciclo.

Hay tres modelos principales de aprendizaje automático que utilizan inteligencia artificial de memoria limitada:

  • Aprendizaje de refuerzo, que aprende a hacer mejores predicciones a través de ensayos y errores repetidos.
  • Memoria a largo plazo (LSTM), que utiliza datos pasados para ayudar a predecir el siguiente elemento de una secuencia. Los LTSM ven la información más reciente como la más importante al hacer predicciones y descuentos de datos de más en el pasado, aunque todavía la utilizan para formar conclusiones
  • Evolutionary Generative Adversarial Networks (E-GAN), que evoluciona con el tiempo, creciendo para explorar caminos ligeramente modificados basados en experiencias anteriores con cada nueva decisión. Este modelo está constantemente en busca de un mejor camino y utiliza simulaciones y estadísticas, o casualidad, para predecir los resultados a lo largo de su ciclo de mutación evolutiva.

Teoría de la mente

La teoría de la mente es solo eso, teórico. Todavía no hemos logrado las capacidades tecnológicas y científicas necesarias para alcanzar este siguiente nivel de inteligencia artificial.

El concepto se basa en la premisa psicológica de entender que otros seres vivos tienen pensamientos y emociones que afectan el comportamiento de uno mismo. En términos de máquinas de IA, esto significaría que la IA podría comprender cómo se sienten los humanos, los animales y otras máquinas y tomar decisiones a través de la autorreflexión y la determinación, y luego utilizará esa información para tomar decisiones por su cuenta. Esencialmente, las máquinas tendrían que ser capaces de captar y procesar el concepto de “mente”, las fluctuaciones de las emociones en la toma de decisiones y una letanía de otros conceptos psicológicos en tiempo real, creando una relación bidireccional entre las personas y la inteligencia artificial.

Autoconciencia

Una vez que la Teoría de la Mente pueda establecerse en inteligencia artificial, en algún momento en el futuro, el paso final será que la IA se vuelva consciente de sí misma. Este tipo de inteligencia artificial posee conciencia a nivel humano y entiende su propia existencia en el mundo, así como la presencia y el estado emocional de los demás. Sería capaz de entender lo que otros puedan necesitar en función no solo de lo que les comunican, sino de cómo lo comunican.

La autoconciencia en inteligencia artificial depende tanto de que los investigadores humanos comprendan la premisa de la conciencia como luego aprendan a replicar eso para que pueda integrarse en máquinas.

USOS, EJEMPLOS + APLICACIONES

ejemplos de inteligencia artificial

¿Cómo se utiliza la IA?

Mientras se dirigía a una multitud en Japan AI Experience en 2017, Jeremy Achin, CEO de DataRobot, comenzó su discurso ofreciendo la siguiente definición de cómo se usa la IA hoy en día:

“AI es un sistema informático capaz de realizar tareas que normalmente requieren inteligencia humana… Muchos de estos sistemas de inteligencia artificial están impulsados por el aprendizaje automático, algunos de ellos están impulsados por el aprendizaje profundo y algunos de ellos están impulsados por cosas muy aburridas como reglas”.

La inteligencia artificial generalmente se divide en dos grandes categorías:

  • IA estrecha: A veces conocida como “IA débil”, este tipo de inteligencia artificial opera dentro de un contexto limitado y es una simulación de inteligencia humana. La IA estrecha a menudo se centra en realizar una sola tarea extremadamente bien y, si bien estas máquinas pueden parecer inteligentes, están operando bajo muchas más restricciones y limitaciones que incluso la inteligencia humana más básica.
     
  • Inteligencia General Artificial (AGI): AGI, a veces conocida como “I IA fuerte”, es el tipo de inteligencia artificial que vemos en las películas, como los robots de Westworld o los datos de Star Trek: The Next Generation. AGI es una máquina con inteligencia general y, al igual que un ser humano, puede aplicar esa inteligencia para resolver cualquier problema.

Inteligencia artificial estrecha

La IA estrecha está a nuestro alrededor y es fácilmente la realización más exitosa de la inteligencia artificial hasta la fecha. Con su enfoque en realizar tareas específicas, Narrow AI ha experimentado numerosos avances en la última década que han tenido “beneficios sociales significativos y han contribuido a la vitalidad económica de la nación”, según “Preparándose para el futuro de la inteligencia artificial”, un informe de 2016 publicado por la Administración Obama.

Algunos ejemplos de IA estrecha incluyen:

  • Búsqueda en Google
  • Software de reconocimiento de imágenes
  • Siri, Alexa y otros asistentes personales
  • Coches autónomos
  • Watson de IBM

Aprendizaje automático y aprendizaje profundo

Gran parte de la IA estrecha está impulsada por avances en el aprendizaje automático y el aprendizaje profundo. Comprender la diferencia entre la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo puede ser confuso. El capitalista de riesgo Frank Chen proporciona una buena visión general de cómo distinguir entre ellos, señalando:

“La inteligencia artificial es un conjunto de algoritmos e inteligencia para tratar de imitar la inteligencia humana. El aprendizaje automático es una de ellas, y el aprendizaje profundo es una de esas técnicas de aprendizaje automático”.

En pocas palabras, el aprendizaje automático alimenta los datos de una computadora y utiliza técnicas estadísticas para ayudarlo a “aprender” cómo mejorar progresivamente en una tarea, sin haber sido programado específicamente para esa tarea, eliminando la necesidad de millones de líneas de código escrito. El aprendizaje automático consiste tanto en el aprendizaje supervisado (utilizando conjuntos de datos etiquetados) como en el aprendizaje no supervisado (utilizando conjuntos de datos no etiquetados).

El aprendizaje profundo es un tipo de aprendizaje automático que ejecuta las entradas a través de una arquitectura de red neuronal de inspiración biológica. Las redes neuronales contienen una serie de capas ocultas a través de las cuales se procesan los datos, lo que permite a la máquina ir “profundo” en su aprendizaje, haciendo conexiones y ponderando la entrada para obtener los mejores resultados.

Inteligencia general artificial

La creación de una máquina con inteligencia a nivel humano que se pueda aplicar a cualquier tarea es el Santo Grial para muchos investigadores de IA, pero la búsqueda de AGI ha estado llena de dificultades.

La búsqueda de un “algoritmo universal para aprender y actuar en cualquier entorno” (Russel y Norvig 27) no es nueva, pero el tiempo no ha aliviado la dificultad de crear esencialmente una máquina con un conjunto completo de habilidades cognitivas.

AGI ha sido durante mucho tiempo la musa de la ciencia ficción distópica, en la que robots súper inteligentes invaden a la humanidad, pero los expertos están de acuerdo en que no es algo de lo que deba preocuparnos pronto.

HISTORIA

historia de la inteligencia artificial
LA HISTORIA DE LA INTELIGENCIA ARTIFICIAL ES LARGA Y ROBUSTA, QUE SE REMONTA A LA DÉCADA DE 1940.

Una breve historia de la inteligencia artificial

Robots inteligentes y seres artificiales aparecieron por primera vez en los antiguos mitos griegos de la Antigüedad. El desarrollo del silogismo de Aristóteles y su uso del razonamiento deductivo fue un momento clave en la búsqueda de la humanidad por entender su propia inteligencia. Si bien las raíces son largas y profundas, la historia de la inteligencia artificial tal como la pensamos hoy abarca menos de un siglo. El siguiente es un vistazo rápido a algunos de los eventos más importantes en IA.

Década de 1940

  • (1943) Warren McCullough y Walter Pitts publican “Un cálculo lógico de ideas inmanentes en la actividad nerviosa”. El documento propuso el primer modelo matemático para construir una red neuronal.
  • (1949) En su libro The Organization of Behavior: A Neuropsychological Theory, Donald Hebb propone la teoría de que las vías neuronales se crean a partir de experiencias y que las conexiones entre neuronas se vuelven más fuertes cuanto más frecuentemente se usan. El aprendizaje hebbio sigue siendo un modelo importante en la IA.

Década de 1950

  • (1950) Alan Turing publica “Computing Machinery and Intelligence”, proponiendo lo que ahora se conoce como la Prueba de Turing, un método para determinar si una máquina es inteligente.
  • (1950) Los estudiantes universitarios de Harvard Marvin Minsky y Dean Edmonds construyen SNARC, el primer ordenador de red neuronal.
  • (1950) Claude Shannon publica el artículo “Programando una computadora para jugar al ajedrez”.
  • (1950) Isaac Asimov publica las “Tres Leyes de Robótica”.
  • (1952) Arthur Samuel desarrolla un programa de autoaprendizaje para jugar a las damas.
  • (1954) El experimento de traducción automática Georgetown-IBM traduce automáticamente 60 oraciones rusas cuidadosamente seleccionadas al inglés.
  • (1956) La frase inteligencia artificial se acuña en el “Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial”. Dirigida por John McCarthy, la conferencia, que definió el alcance y los objetivos de la IA, es ampliamente considerada como el nacimiento de la inteligencia artificial tal como la conocemos hoy en día.
  • (1956) Allen Newell y Herbert Simon demuestran Logic Theorist (LT), el primer programa de razonamiento.
  • (1958) John McCarthy desarrolla el lenguaje de programación de IA Lisp y publica el artículo “Programas con sentido común”. El documento proponía el hipotético Advice Taker, un sistema completo de IA con la capacidad de aprender de la experiencia tan eficazmente como lo hacen los humanos.
  • (1959) Allen Newell, Herbert Simon y J.C. Shaw desarrolla el General Problem Solver (GPS), un programa diseñado para imitar la resolución de problemas humanos.
  • (1959) Herbert Gelernter desarrolla el programa Geometry Theorem Prover.
  • (1959) Arthur Samuel acuña el término aprendizaje automático mientras está en IBM.
  • (1959) John McCarthy y Marvin Minsky fundaron el Proyecto de Inteligencia Artificial del MIT.

Década de 1960

  • (1963) John McCarthy inicia el Laboratorio de IA en Stanford.
  • (1966) El informe del Comité Asesor de Procesamiento Automático de Idiomas (ALPAC) del gobierno de los Estados Unidos detalla la falta de progreso en la investigación de traducciones automáticas, una importante iniciativa de la Guerra Fría con la promesa de la traducción automática e instantánea del ruso. El informe ALPAC conduce a la cancelación de todos los proyectos de MT financiados por el gobierno.
  • (1969) Los primeros sistemas expertos exitosos se desarrollan en DENDRAL, un programa XX, y MYCIN, diseñado para diagnosticar infecciones sanguíneas, se crean en Stanford.

Década de 1970

  • (1972) Se crea el lenguaje de programación lógica PROLOG.
  • (1973) El “Informeighthill”, que detalla las decepciones en la investigación de IA, es publicado por el gobierno británico y conduce a severos recortes en la financiación de proyectos de inteligencia artificial.
  • (1974-1980) La frustración con el progreso del desarrollo de la IA conduce a importantes recortes de DARPA en las becas académicas. Combinado con el informe anterior de ALPAC y el “Informe de Hill” del año anterior, la financiación de la inteligencia artificial se seca y la investigación se detiene. Este período se conoce como el “Primer Invierno de IA”.

Década de 1980

  • (1980) Digital Equipment Corporations desarrolla R1 (también conocido como XCON), el primer sistema de expertos comerciales exitoso. Diseñado para configurar pedidos de nuevos sistemas informáticos, R1 inicia un auge de la inversión en sistemas expertos que durará gran parte de la década, poniendo fin de manera efectiva al primer “AI Winter”.
  • (1982) El Ministerio de Comercio Internacional e Industria de Japón lanza el ambicioso proyecto de Sistemas Informáticos de Quinta Generación. El objetivo de FGCS es desarrollar un rendimiento similar al de un superordenador y una plataforma para el desarrollo de IA.
  • (1983) En respuesta al FGCS de Japón, el gobierno de los Estados Unidos lanza la Iniciativa de Computación Estratégica para proporcionar investigación financiada por DARPA en computación avanzada e inteligencia artificial.
  • (1985) Las empresas están gastando más de mil millones de dólares al año en sistemas expertos y toda una industria conocida como el mercado de máquinas Lisp surge para apoyarlas. Empresas como Symbolics y Lisp Machines Inc. construyen computadoras especializadas para ejecutarse en el lenguaje de programación de IA Lisp.
  • (1987-1993) A medida que mejoraba la tecnología informática, surgieron alternativas más baratas y el mercado de máquinas Lisp colapsó en 1987, marcando el comienzo del “Segundo Invierno de IA”. Durante este período, los sistemas expertos demostraron ser demasiado caros de mantener y actualizar, y finalmente cayeron en desgracia.

Década de 1990

  • (1991) Las fuerzas estadounidenses despliegan DART, una herramienta automatizada de planificación y programación logística, durante la Guerra del Golfo.
  • (1992) Japón termina el proyecto FGCS en 1992, alegando el fracaso en el cumplimiento de los ambiciosos objetivos esbozados una década antes.
  • (1993) DARPA termina la Iniciativa de Computación Estratégica en 1993 después de gastar casi mil millones de dólares y estar muy por debajo de las expectativas.
  • (1997) Deep Blue de IBM vence al campeón mundial de ajedrez Gary Kasparov

Años 2000

  • (2005) STANLEY, un coche autónomo, gana el DARPA Grand Challenge.
  • (2005) El ejército de los Estados Unidos comienza a invertir en robots autónomos como “Big Dog” de Boston Dynamics y “PackBot” de iRobot.
  • (2008) Google hace avances en el reconocimiento de voz e introduce la función en su aplicación para iPhone.

2010-2014

  • (2011) Watson de IBM supera la competencia en Jeopardy!.
  • (2011) Apple lanza Siri, un asistente virtual alimentado por IA a través de su sistema operativo iOS. 
  • (2012) Andrew Ng, fundador del proyecto Google Brain Deep Learning, alimenta una red neuronal utilizando algoritmos de aprendizaje profundo 10 millones de videos de YouTube como conjunto de entrenamiento. La red neuronal aprendió a reconocer a un gato sin que se le dijera qué es un gato, marcando el comienzo de la era revolucionaria de las redes neuronales y la financiación del aprendizaje profundo.
  • (2014) Google fabrica el primer coche autónomo en pasar una prueba de conducción estatal.
  • (2014) Alexa de Amazon, se lanza un hogar virtual

2015-2021

  • (2016) AlphaGo de Google DeepMind derrota al campeón mundial de Go Lee Sedol. La complejidad del antiguo juego chino fue vista como un obstáculo importante para aclarar en la IA.
  • (2016) El primer “ciudadano robot”, un robot humanoide llamado Sophia, es creado por Hanson Robotics y es capaz de reconocimiento facial, comunicación verbal y expresión facial.
  • (2018) Google lanza el motor de procesamiento del lenguaje natural BERT, reduciendo las barreras en la traducción y la comprensión por parte de las aplicaciones de aprendizaje automático.
  • (2018) Waymo lanza su servicio Waymo One, que permite a los usuarios de todo el área metropolitana de Phoenix solicitar una recogida en uno de los vehículos autónomos de la compañía.
  • (2020) Baidu lanza su algoritmo LinearFold AI a los equipos científicos y médicos que trabajan para desarrollar una vacuna durante las primeras etapas de la pandemia de SARS-CoV-2. El algoritmo es capaz de predecir la secuencia de ARN del virus en solo 27 segundos, 120 veces más rápido que otros métodos.