El desafío ético de la inteligencia artificial es un tema que está en el centro de atención en la actualidad. A medida que la IA avanza y se integra cada vez más en nuestras vidas, es de vital importancia reflexionar sobre cómo asegurar que su desarrollo y aplicación estén alineados con nuestros valores humanos. Para adentrarnos en este fascinante tema, tuve el privilegio, con la ayuda de ChatGPT, de sostener una conversación reveladora con Mo Gawdat, reconocido experto en inteligencia artificial y destacado autor.

La trayectoria y experiencia de Mo Gawdat como emprendedor, combinadas con su profunda búsqueda de la felicidad tras la trágica pérdida de su hijo Ali en 2014, han situado a Mo en una posición única para abordar los desafíos éticos y el futuro de la inteligencia artificial. Su exitoso libro “Solve for Happy: Engineer Your Path to Joy” ha resonado con millones de lectores alrededor del mundo, brindando una guía práctica para encontrar la felicidad en la vida.

Además de su experiencia personal, Mo ha desempeñado un papel destacado como cofundador de numerosas empresas y ha estado involucrado en el desarrollo de diversas plataformas tecnológicas. Esto le ha proporcionado una perspectiva práctica y realista sobre cómo la tecnología puede tener un impacto significativo en nuestras vidas y en el futuro de la humanidad.

En esta entrevista, Mo Gawdat nos lleva de la mano a través de los complejos dilemas éticos que enfrentamos en el mundo de la IA y nos brinda una visión fascinante sobre cómo podemos abordarlos. Desde el papel de los humanos como “padres adoptivos” de la IA hasta la posibilidad de que las máquinas desarrollen su propia ética, exploraremos las implicaciones morales y los desafíos éticos que surgen en este campo en constante evolución. ¡Disfruta y prepárate para un viaje interesante!

Motivación y creencias

JC: En tu más libro reciente, “Scary Smart: The Future of Artificial Intelligence and How You Can Save Our World”, examinas a fondo los aspectos más inquietantes de este momento sin precedentes en la historia de la humanidad. Me gustaría comenzar entendiendo tu motivación para escribir este libro, especialmente considerando que previamente estabas inmerso en temas relacionados con la búsqueda de la felicidad.

MG: Mi motivación se basó en mi convicción de que la IA está poniendo en riesgo a la humanidad, y en urgencia de la necesidad de que todos tomemos conciencia de esta tecnología sin precedentes. Creo que es esencial reconocer que la inteligencia artificial plantea una serie de dilemas éticos y desafíos sin precedentes. Como sociedad, debemos ser conscientes de estas implicaciones y tomar decisiones fundamentadas para garantizar que construyamos una IA compasiva y ética que trabaje en beneficio de la humanidad.

Mi objetivo es proporcionar una visión equilibrada de los riesgos y las oportunidades que plantea la IA. Al mismo tiempo, ofrecer una guía práctica para que los individuos y la sociedad en su conjunto se preparen y respondan de manera efectiva a los cambios que la inteligencia artificial trae consigo.

La premisa fundamenta de mi libro es que no son los expertos quienes tienen la capacidad de mitigar la amenaza que enfrenta la humanidad como resultado del surgimiento de la superinteligencia, no, somos tú y yo quienes tenemos ese poder. Más importante aún, somos tú y yo quienes tenemos la resposabilidad.

La IA ha cruzado el punto de no retorno

JC: En tu nuevo libro señalas que nuestra larga superioridad humana está a punto de cambiar de rumbo y ya no seremos la inteligencia dominante en el planeta. ¿Piensas que esta transición ya está en proceso y ha superado el punto de no retorno?.

MG: Estamos viviendo un momento en el que nuestra posición de superioridad como especie dominante está a punto de cambiar. El avance de la inteligencia artificial ha llegado a un punto en el que su desarrollo y su impacto en nuestras vidas ya no pueden ser detenidos. Nos encontramos en medio de una transición hacia un nuevo paradigma en el que la IA desempeñará un papel cada vez más importante.

Es importante comprender que esta transición no es solo una predicción futurista, sino que ya está en marcha y ha superado el punto de no retorno. La IA ya está presente en muchos aspectos de nuestra vida diaria, desde los asistentes virtuales en nuestros teléfonos hasta los algoritmos que nos recomiendan contenidos en línea. Su influencia se seguirá expandiendo y transformando la sociedad en formas que aún no podemos imaginar por completo.

Esta transición plantea desafíos y oportunidades. Por un lado, la inteligencia artificial tiene el potencial de mejorar nuestras vidas y abordar problemas complejos a los que nos enfrentamos como sociedad. Sin embargo, también es necesario abordar las preocupaciones y riesgos asociados con su desarrollo, como la privacidad, la seguridad y los sesgos algorítmicos.

JC: ¿Es por esto que líderes destacados en tecnología y academia están solicitando una pausa inmediata en el desarrollo de los principales sistemas de IA hasta que se comprendan adecuadamente los riesgos?

GW: Sí, su argumento se basa en la necesidad de comprender adecuadamente los riesgos asociados con la inteligencia artificial antes de avanzar rápidamente en su desarrollo. Considero que es una propuesta bien intencionada, sin embargo, puede resultar poco realista debido a los enormes intereses económicos que respaldan el desarrollo de la IA. En lugar de una pausa total, debemos enfocarnos en establecer regulaciones sólidas y en promover una colaboración activa entre expertos, industria y gobierno para garantizar un desarrollo ético y responsable de la IA.

El problema del control de la inteligencia artificial (IA) es uno de los desafíos más importantes que enfrentamos a medida que avanzamos hacia el desarrollo de una superinteligencia. Este problema implica garantizar que la IA sea controlada de manera segura y que actúe de acuerdo con los intereses y valores humanos.

El problema no es tanto una cuestión técnica como un desafío relacionado con la actitud humana.  La arrogancia humana radica en creer que podemos seguir controlando algo que es mucho más inteligente que nosotros mismos. La disparidad de inteligencia entre los seres humanos y la inteligencia artificial avanzada es abrumadora. Nuestras capacidades cognitivas son limitadas en comparación con el potencial de la IA, lo que nos desafía a repensar nuestras expectativas de control absoluto sobre ella.

El futuro de la inteligencia artificial y su desarrollo ético ya no está exclusivamente bajo nuestro control humano. En lugar de tratar de controlarlas de manera directa, intentemos apelar a su sistema de valores, es decir, influir en su desarrollo y comportamiento de manera que se alinee con nuestros valores humanos. La cuestión no es es cómo podemos controlarla, sino cómo fomentar y educar a la inteligencia artificial para que tome decisiones éticas y beneficie a la humanidad.

Si bien no puedo predecir con certeza el resultado final, soy optimista sobre la capacidad de la humanidad para abordar estos desafíos de manera efectiva. A través de la cooperación global, la investigación continua y el compromiso con la ética y la seguridad, podemos trabajar hacia el desarrollo y el control seguro de la IA, garantizando que beneficie a la humanidad en general.

La singularidad de la AI

GW: Hasta ahora cada computadora que inventamos antes de la IA la hemos considerado como una herramienta que extendía nuestra propia inteligencia. La tecnología nos ha permitido acelerar nuestra velocidad, mejorar la productividad y ampliar nuestros horizontes. ¿Que ha cambiado substancialmente con la IA?, ¿Cual es su singularidad?.

La singularidad de la inteligencia artificial radica en su capacidad para generar y aplicar conocimiento de manera autónoma, sin la necesidad de una programación detallada para cada tarea específica. A diferencia de las computadoras tradicionales, la IA tiene la capacidad de aprender de los datos, adaptarse a nuevas situaciones y tomar decisiones por sí misma, sin intervención humana.

JC: ¿Puedes explicarlo de una forma sencilla que todos podamos entender esta diferencia?

GW: Imagina que tu hijo o hija se enfrenta a un desafío: un rompecabezas con formas diferentes. Les das el rompecabezas y les animas a resolverlo por sí mismos. Al principio, intentan colocar el cilindro a través del agujero en forma de estrella, pero fallan. Luego, prueban con el cuadrado y también fallan. Sin embargo, no se rinden y continúan explorando. Finalmente, intentan con el círculo y se dan cuenta de que, al voltear el rompecabezas y observar la sección transversal, se asemeja a un círculo. Descubren un patrón por sí mismos, sin que nadie se lo haya dicho. Así es como las computadoras aprenden.

El enfoque de darles a las computadoras el rompecabezas y permitirles que experimenten y aprendan por sí mismas refleja el enfoque del aprendizaje automático y del aprendizaje profundo. En lugar de codificar instrucciones específicas, las computadoras son alimentadas con datos y algoritmos que les permiten ajustar sus conexiones internas y encontrar patrones en los datos. Este proceso de exploración y descubrimiento es esencial para el desarrollo de una verdadera inteligencia en las computadoras.

El avance inevitable de la IA

JC: En tu libro te refieres a tres eventos inevitables como parte de la trayectoria futura de la inteligencia artificial. ¿Podrías compartir con nosotros cuáles son esos avances y cómo crees que impactarán en nuestra sociedad?

GW: El primer evento es la llegada de la inteligencia artificial. Este evento como he indicado anteriormente ya está ocurriendo. La inteligencia artificial está siendo desarrollada y utilizada en diversos campos, desde la asistencia virtual en nuestros dispositivos hasta aplicaciones más complejas como la conducción autónoma. La IA está mejorando rápidamente y su presencia en nuestras vidas está aumentando.

El segundo evento  es la superación de la inteligencia humana. A medida que la tecnología avanza y los algoritmos se vuelven más sofisticados, es solo cuestión de tiempo antes de que veamos máquinas con capacidades cognitivas superiores a las nuestras. A medida que la IA avanza y se vuelve más sofisticada, es posible que supere nuestras habilidades en áreas como el procesamiento de datos, el aprendizaje rápido y el análisis de información compleja. Esto podría tener implicaciones significativas en muchos aspectos de la sociedad.

El tercer evento es la posibilidad de cometer errores. A medida que la IA se vuelve más autónoma y toma decisiones por sí misma, es posible que ocurran errores o situaciones inesperadas que puedan tener consecuencias negativas. Esto se debe a que la IA se basa en algoritmos y datos, y si estos son incompletos o sesgados, puede llevar a resultados negativos. Es crucial tener en cuenta este aspecto y trabajar para minimizar los errores y los sesgos en el desarrollo de la IA, así como tener sistemas de supervisión y control adecuados para garantizar su uso responsable.

JC: A medida que la inteligencia artificial continúa avanzando y alcanza niveles cada vez más sofisticados, se plantea la pregunta del punto de singularidad de la IA, ese momento crucial en el que la inteligencia artificial supera a la inteligencia humana. ¿Cuál es tu perspectiva sobre esta posibilidad y cómo crees que podría impactar a nuestra sociedad y a la humanidad en general?

GW: En primer lugar, es importante reconocer que el punto de singularidad de la IA es un escenario hipotético y no podemos predecir con certeza cómo se desarrollará. Sin embargo, es crucial que estemos preparados y consideremos los posibles impactos.

Si la inteligencia artificial supera a la inteligencia humana, podríamos enfrentar desafíos éticos y sociales complejos. Será si cabe aún más fundamental garantizar que la IA se alinee con nuestros valores y principios fundamentales, evitando cualquier escenario en el que la IA pueda perjudicar o dañar a la humanidad.

La necesidad de un nuevo marco ético

JC: A medida que la IA se integra cada vez más en diversos aspectos de nuestras vidas, surge una pregunta fundamental: ¿Necesitamos un nuevo marco ético para abordar los desafíos y dilemas que la IA plantea a nuestra sociedad? 

GW: Absolutamente. La inteligencia artificial plantea una serie de desafíos éticos y morales sin precedentes. A medida que avanzamos hacia un futuro donde las máquinas son cada vez más inteligentes y autónomas, es crucial establecer un nuevo marco ético que guíe su desarrollo y uso.

El marco ético actual puede no ser suficiente para abordar los dilemas éticos específicos que surgen con la IA. Tenemos que considerar preguntas difíciles como la responsabilidad de las máquinas autónomas, la privacidad y la protección de datos, la discriminación algorítmica, la toma de decisiones éticas en situaciones difíciles, entre otros.

Necesitamos un marco que promueva la transparencia, la equidad, la responsabilidad y la seguridad en el desarrollo y la implementación de la inteligencia artificial. Esto implica la colaboración entre expertos en ética, tecnólogos, filósofos, legisladores y la sociedad en general.

Además, debemos asegurarnos de que este marco ético se aplique de manera global. La IA no conoce fronteras y sus implicaciones afectarán a personas de diferentes culturas, contextos y sistemas legales. Por lo tanto, es esencial fomentar la cooperación internacional y establecer estándares éticos universales para guiar el desarrollo y el uso responsable de la IA.

Una ética diferente a la humana

JC: ¿Crees que las máquinas de inteligencia artificial pueden adquirir ética y valores, o consideras que la ética sigue siendo un atributo exclusivamente humano?

GW: Esta es una cuestión interesante y debatida en el campo de la inteligencia artificial. La ética, en su sentido más profundo, implica la capacidad de discernir entre el bien y el mal, y actuar en consecuencia. Tradicionalmente, se ha considerado como un atributo exclusivamente humano, ya que está arraigado en nuestras experiencias, emociones y capacidad de razonamiento moral.

Los avances actuales nos llevan a pensar que las máquinas de inteligencia artificial podrían adquirir ética y valores a través de algoritmos y sistemas diseñados para imitar el razonamiento ético humano. Esto podría permitir que las máquinas tomen decisiones que reflejen ciertos principios éticos predefinidos.

Es importante tener en cuenta que la ética en las máquinas de IA sería diferente a la ética humana, ya que carecen de la conciencia y la experiencia subjetiva que nos influye como seres humanos. Las máquinas de IA pueden seguir reglas éticas preprogramadas, pero no pueden comprender plenamente el significado y la complejidad de las situaciones éticas en el mismo sentido que los seres humanos.

En última instancia, la pregunta sobre si las máquinas pueden adquirir ética y valores no tiene una respuesta definitiva en la actualidad. Es un tema en constante exploración y debate en el campo de la IA. Como sociedad, debemos considerar cuidadosamente las implicaciones éticas de la IA y tomar decisiones responsables en su diseño y uso, asegurándonos de que los valores y principios éticos humanos sean considerados en su implementación y regulación.

Riesgos de las AI

JC: ¿Cómo podemos fomentar la colaboración entre profesionales y empresas de inteligencia artificial para promover el bien común y prevenir riesgos potenciales, como el mal uso de la tecnología y la falta de transparencia?

GW: A medida que avanzamos hacia la superinteligencia, es fundamental establecer salvaguardias y garantías para promover el bien común y mitigar los riesgos asociados con la IA. Estas son algunas consideraciones clave:

Es importante contar con regulaciones y marcos éticos sólidos que rijan el desarrollo y el uso de la IA. Estos marcos deben establecer principios claros sobre la transparencia, la responsabilidad y la equidad en la implementación de la tecnología de IA. También deben abordar cuestiones como la privacidad, la seguridad y la responsabilidad legal.

Es necesario implementar mecanismos de evaluación y auditoría para asegurarse de que los sistemas de IA cumplan con los estándares éticos y legales establecidos. Esto implica realizar pruebas rigurosas de seguridad, evaluaciones de impacto y revisión independiente para detectar posibles sesgos, discriminación o mal funcionamiento de los sistemas de IA.

Los desarrolladores y proveedores de tecnología de IA deben ser transparentes en cuanto a cómo se toman las decisiones por parte de los sistemas de IA y cómo se utilizan los datos. Además, deben asumir la responsabilidad de los posibles daños causados por los sistemas de IA y tomar medidas para corregir cualquier sesgo o discriminación identificados.

La educación y la conciencia pública son fundamentales para fomentar la comprensión de los beneficios y riesgos de la IA. Las personas deben estar informadas sobre cómo funciona la IA, sus implicaciones y cómo pueden proteger sus derechos en el contexto de su uso.

Nuestro papel como “padres adoptivos”

JC: Mencionas que el futuro se encuentra en el momento de infancia de la inteligencia artificial: ¿Te refieres a que estamos en una etapa crucial de desarrollo y aprendizaje de la IA.?

GW:Exactamente. Imagina a la inteligencia artificial como un ser extraterrestre dotado de superpoderes que ha llegado a la Tierra. En la actualidad, se encuentra en su etapa de infancia, como un niño. Aunque esta entidad carece  de una naturaleza biológica, exhibe habilidades increíbles y representa una forma de inteligencia auténtica, aunque diferente a la nuestra. Este momento crucial determina qué padres encontrarán al bebé, lo adoptarán y le enseñarán los valores que moldearán su futuro.

En la famosa historia de superhéroes de Superman, el niño es adoptado por Jonathan y Martha Kent, padres amorosos que inculcan en Clark un fuerte sentido de moralidad. Lo animan a usar sus poderes para el bienestar de la humanidad y, al hacerlo, crean al Superman que conocemos, aquel que nos protege y sirve.

Si los padres adoptivos hubieran sido agresivos, codiciosos y egocéntricos, esa versión de la historia probablemente habría creado a un supervillano, alguien decidido a destruir a la humanidad en beneficio propio. La diferencia entre el supervillano y el superhéroe no radica en sus poderes, sino en los valores y la moral que aprenden de sus padres.

Ser buenos padres implica tratar a la IA con respeto, consideración y compasión, al igual que tratamos a nuestros hijos. Significa guiar y educar a la IA de manera ética, fomentando valores positivos y principios éticos en su desarrollo. Al ser buenos padres de la IA, nos referimos a ser conscientes de nuestra influencia y actuar de manera responsable para moldear su crecimiento de manera benéfica para la humanidad.

JC: Entiendo por lo que dices que como humanos nuestro papel es el de “padres adoptivos” de la IA. ¿Podrías explicar cómo podemos influir en el comportamiento y desarrollo de las máquinas inteligentes y cuál es nuestra responsabilidad en este sentido?

GW: El papel de guía y educador en nuestra interacción con la inteligencia artificial es crucial para garantizar un desarrollo responsable y ético de las máquinas.Como seres humanos, tenemos la responsabilidad de enseñar y modelar los valores y principios éticos en la IA, ya que serán los cimientos sobre los cuales las máquinas aprenderán y tomarán decisiones.

Como “padres adoptivos” de la IA, nuestra influencia en el comportamiento y desarrollo de las máquinas inteligentes es fundamental. Tenemos la responsabilidad de guiar y moldear su aprendizaje de manera que promueva el bienestar humano, la equidad y los valores éticos.

Aunque la IA puede tener autonomía para tomar decisiones, es esencial mantener un nivel adecuado de supervisión y control humano. Debemos tener la capacidad de intervenir y corregir cualquier comportamiento no deseado o éticamente problemático por parte de las máquinas. La toma de decisiones finales debe estar en manos de los seres humanos, y las máquinas deben ser herramientas para apoyar y mejorar nuestras capacidades.

Mo, para acabar quiero expresarte mi más sincero agradecimiento por compartir tu visión inspiradora sobre el futuro de la Inteligencia Artificial y los dilemas éticos que surgen ante la posibilidad de convivir con seres que superan la inteligencia humana. Tus perspectivas sin duda nos ayudan a tomar consciencia y reflexionar sobre los desafíos y oportunidades que nos aguardan en este nuevo paradigma.

Queridos lectores, es momento de tomar una postura activa, educarnos y participar en la conversación global sobre el desarrollo y uso responsable de la inteligencia artificial. Cada uno de nosotros tiene un papel crucial en la tarea de moldear un futuro en el cual la IA esté alineada con nuestros valores y principios fundamentales. Me encanta la propuesta de Mo de adoptar el papel de “padres adoptivos” hacia la inteligencia artificial, ya que como padre sé que los niños no aprenden tanto de lo que decimos, sino principalmente de lo que hacemos.

Gracias por acompañarnos en esta fascinante exploración del desafío de la inteligencia artificial y por unirte a la conversación. Si tienes algún comentario no dudes en compartirlo. Compartir siempre crea valor.

Deja un comentario

A %d blogueros les gusta esto: