¿Qué es la inteligencia artificial?

La inteligencia artificial
Brita Inteligencia Artificial

Pocos conceptos se comprenden tan mal como la inteligencia artificial. Las encuestas de opinión muestran que incluso los principales líderes empresariales carecen de un sentido detallado de la IA y que mucha gente común la confunde con robots superpoderosos o dispositivos hiperinteligentes. Hollywood ayuda poco en este sentido al fusionar robots y software avanzado en autómatas autorreplicantes como Terminator’s Skynet o el malvado HAL visto en “2001: A Space Odyssey” de Arthur Clarke, que se vuelve rebelde después de que los humanos planean desactivarlo. La falta de claridad en torno al término permite a los pesimistas de la tecnología advertir que la IA conquistará a los humanos, suprimirá la libertad individual y destruirá la privacidad personal a través de un “1984” digital.

Parte del problema es la falta de una definición uniformemente acordada. A Alan Turing generalmente se le atribuye el origen del concepto cuando especuló en 1950 acerca de las “máquinas pensantes” que podrían razonar al nivel de un ser humano. Su conocido “Turing Test ”especifica que las computadoras necesitan completar acertijos de razonamiento, así como los humanos, para ser considerados como“ pensando ”de manera autónoma.

Turing fue seguido unos años más tarde por John McCarthy , quien utilizó por primera vez el término “inteligencia artificial” para denotar máquinas que podían pensar de forma autónoma. Describió el umbral como “conseguir que una computadora haga cosas que, cuando las hacen las personas, se dice que involucran inteligencia”.

Desde la década de 1950, los científicos han debatido sobre qué constituye “pensamiento” e “inteligencia” y qué es “completamente autónomo” cuando se trata de hardware y software. Computadoras avanzadas como la IBM Watson ya ha vencido a los humanos en el ajedrez y es capaz de procesar instantáneamente enormes cantidades de información.

La falta de claridad en torno al término permite a los pesimistas de la tecnología advertir que la IA conquistará a los humanos, suprimirá la libertad individual y destruirá la privacidad personal a través de un “1984” digital.

Hoy en día, generalmente se cree que la IA se refiere a “máquinas que responden a la estimulación de manera consistente con las respuestas tradicionales de los humanos, dada la capacidad humana de contemplación, juicio e intención”. Según investigadoresShubhendu y Vijay , estos sistemas de software “toman decisiones que normalmente requieren [un] nivel humano de experiencia” y ayudan a las personas a anticipar los problemas o resolverlos a medida que surgen. Como argumentamos John Allen y yo mismo en un artículo de abril de 2018 , tales sistemas tienen tres cualidades que constituyen la esencia de la inteligencia artificial: intencionalidad, inteligencia y adaptabilidad.

En el resto de este artículo, discuto estas cualidades y por qué es importante asegurarse de que cada una esté de acuerdo con los valores humanos básicos. Cada una de las características de la IA tiene el potencial de hacer avanzar la civilización de manera progresiva. Pero sin las salvaguardias adecuadas o la incorporación de consideraciones éticas, la utopía de la IA puede convertirse rápidamente en distopía.

INTENCIONALIDAD

Los algoritmos de inteligencia artificial están diseñados para tomar decisiones, a menudo utilizando datos en tiempo real. Son diferentes a las máquinas pasivas que solo son capaces de respuestas mecánicas o predeterminadas. Utilizando sensores, datos digitales o entradas remotas, combinan información de una variedad de fuentes diferentes, analizan el material al instante y actúan sobre la base de los conocimientos derivados de esos datos. Como tales, están diseñados por humanos con intencionalidad y llegan a conclusiones basadas en su análisis instantáneo.

Un ejemplo de la industria del transporte muestra cómo sucede esto. Los vehículos autónomos están equipados con LIDARS (detección de luz y rango) y sensores remotos que recopilan información del entorno del vehículo. El LIDAR utiliza la luz de un radar para ver objetos delante y alrededor del vehículo y tomar decisiones instantáneas con respecto a la presencia de objetos, distancias y si el coche está a punto de chocar con algo. Las computadoras a bordo combinan esta información con los datos de los sensores para determinar si existen condiciones peligrosas, si el vehículo necesita cambiar de carril o si debe reducir la velocidad o detenerse por completo. Todo ese material debe analizarse instantáneamente para evitar choques y mantener el vehículo en el carril adecuado.

Con mejoras masivas en los sistemas de almacenamiento, velocidades de procesamiento y técnicas analíticas, estos algoritmos son capaces de una enorme sofisticación en el análisis y la toma de decisiones. Los algoritmos financieros pueden detectar diferenciales diminutos en las valoraciones de acciones y realizar transacciones de mercado que aprovechan esa información. La misma lógica se aplica en los sistemas de sostenibilidad ambiental que usan sensores para determinar si alguien está en una habitación y ajustan automáticamente la calefacción, el enfriamiento y la iluminación en función de esa información. El objetivo es conservar energía y utilizar los recursos de manera óptima.

Siempre que estos sistemas se ajusten a valores humanos importantes, hay poco riesgo de que la IA se vuelva rebelde o ponga en peligro a los seres humanos. Las computadoras pueden ser intencionales al analizar la información de manera que mejore a los humanos o les ayude a desempeñarse a un nivel superior. Sin embargo, si el software está mal diseñado o se basa en información incompleta o sesgada, puede poner en peligro a la humanidad o reproducir injusticias pasadas.

INTELIGENCIA

La IA a menudo se lleva a cabo junto con el aprendizaje automático y el análisis de datos, y la combinación resultante permite la toma de decisiones inteligente. El aprendizaje automático toma datos y busca tendencias subyacentes. Si detecta algo que es relevante para un problema práctico, los diseñadores de software pueden tomar ese conocimiento y usarlo con análisis de datos para comprender problemas específicos.

Por ejemplo, existen sistemas de inteligencia artificial para administrar las inscripciones escolares . Recopilan información sobre la ubicación del vecindario, las escuelas deseadas, los intereses fundamentales y similares, y asignan a los alumnos a escuelas en particular basándose en ese material. Mientras haya poca controversia o desacuerdo con respecto a los criterios básicos, estos sistemas funcionan de manera inteligente y eficaz.

Por supuesto, ese no suele ser el caso. Al reflejar la importancia de la educación para los resultados de la vida, los padres, maestros y administradores escolares luchan por la importancia de diferentes factores. ¿Los estudiantes siempre deben ser asignados a la escuela de su vecindario o deben otros criterios anular esa consideración? A modo de ejemplo, en una ciudad con una segregación racial generalizada y desigualdades económicas por vecindario, elevar las asignaciones escolares del vecindario puede exacerbar la desigualdad y la segregación racial. Por estas razones, los diseñadores de software tienen que equilibrar intereses en competencia y tomar decisiones inteligentes que reflejen valores importantes en esa comunidad en particular.

Descubrir cómo reconciliar valores en conflicto es uno de los desafíos más importantes que enfrentan los diseñadores de IA. Es vital que escriban código e incorporen información que sea imparcial y no discriminatoria. No hacerlo conduce a algoritmos de inteligencia artificial que son injustos e injustos.

Tomar este tipo de decisiones recae cada vez más en los programadores de computadoras. Deben construir algoritmos inteligentes que compilen decisiones basadas en una serie de consideraciones diferentes. Eso puede incluir principios básicos como eficiencia, equidad, justicia y eficacia. Descubrir cómo reconciliar valores en conflicto es uno de los desafíos más importantes que enfrentan los diseñadores de IA. Es vital que escriban código e incorporen información que sea imparcial y no discriminatoria. No hacerlo conduce a algoritmos de inteligencia artificial que son injustos e injustos.

ADAPTABILIDAD

La última cualidad que caracteriza a los sistemas de IA es la capacidad de aprender y adaptarse a medida que recopilan información y toman decisiones. La inteligencia artificial eficaz debe adaptarse a medida que cambian las circunstancias o las condiciones. Esto puede implicar alteraciones en situaciones financieras, condiciones de la carretera, consideraciones ambientales o circunstancias militares. La IA debe integrar estos cambios en sus algoritmos y tomar decisiones sobre cómo adaptarse a las nuevas posibilidades.

Uno puede ilustrar estos problemas de manera más dramática en el área del transporte. Los vehículos autónomos pueden utilizar las comunicaciones de máquina a máquina para alertar a otros automóviles en la carretera sobre la inminente congestión, baches, construcción de carreteras u otros posibles impedimentos de tráfico. Los vehículos pueden aprovechar la experiencia de otros vehículos en la carretera, sin participación humana, y todo el corpus de su “experiencia” lograda es inmediata y totalmente transferible a otros vehículos configurados de manera similar. Sus algoritmos, sensores y cámaras avanzados incorporan experiencia en las operaciones actuales y utilizan paneles y pantallas visuales para presentar información en tiempo real, de modo que los conductores humanos puedan entender el tráfico continuo y las condiciones vehiculares.

Una lógica similar se aplica a la inteligencia artificial diseñada para programar citas. Hay asistentes digitales personales que pueden determinar las preferencias de una persona y responder a las solicitudes de citas personales por correo electrónico de manera dinámica. Sin ninguna intervención humana, un asistente digital puede concertar citas, ajustar horarios y comunicar esas preferencias a otras personas. La construcción de sistemas adaptables que aprenden sobre la marcha tiene el potencial de mejorar la eficacia y la eficiencia. Este tipo de algoritmos pueden manejar tareas complejas y emitir juicios que replican o exceden lo que un humano podría hacer. Pero asegurarse de que “aprendan” de manera justa y equitativa es una prioridad para los diseñadores de sistemas.

CONCLUSIÓN

En resumen, ha habido avances extraordinarios en los últimos años en la capacidad de los sistemas de IA para incorporar intencionalidad, inteligencia y adaptabilidad en sus algoritmos. En lugar de ser mecanicista o determinista en el funcionamiento de las máquinas, el software de IA aprende a medida que avanza e incorpora la experiencia del mundo real en la toma de decisiones. De esta manera, mejora el desempeño humano y aumenta las capacidades de las personas.

Por supuesto, estos avances también ponen nerviosa a la gente ante los escenarios del fin del mundo sensacionalizados por los cineastas. Las situaciones en las que los robots impulsados ​​por IA sustituyen a los humanos o debilitan los valores básicos asustan a las personas y las llevan a preguntarse si la IA está haciendo una contribución útil o corre el riesgo de poner en peligro la esencia de la humanidad.

Con las salvaguardias adecuadas, los países pueden avanzar y obtener los beneficios de la inteligencia artificial y las tecnologías emergentes sin sacrificar las cualidades importantes que definen a la humanidad.

No hay una respuesta fácil a esa pregunta, pero los diseñadores de sistemas deben incorporar valores éticos importantes en los algoritmos para asegurarse de que se correspondan con las preocupaciones humanas y aprender y adaptarse de manera coherente con los valores de la comunidad. Esta es la razón por la que es importante garantizar que la ética de la IA se tome en serio y permee las decisiones de la sociedad. Para maximizar los resultados positivos, las organizaciones deben contratar especialistas en ética que trabajen con los responsables de la toma de decisiones corporativas y los desarrolladores de software, tener un código de ética de inteligencia artificial que establezca cómo se manejarán varios problemas, organizar una junta de revisión de inteligencia artificial que aborde regularmente las cuestiones éticas corporativas, tener inteligencia artificial pistas de auditoría que muestran cómo se han tomado varias decisiones de codificación, implementan programas de capacitación en IA para que el personal ponga en práctica las consideraciones éticas en su trabajo diario,

A través de este tipo de salvaguardas, las sociedades aumentarán las probabilidades de que los sistemas de inteligencia artificial sean intencionales, inteligentes y adaptables, sin dejar de cumplir con los valores humanos básicos. De esa manera, los países pueden avanzar y obtener los beneficios de la inteligencia artificial y las tecnologías emergentes sin sacrificar las importantes cualidades que definen a la humanidad.