A finales de noviembre 2022 nació el famoso ChatGPT. En apenas dos meses llegó a tener 100 millones de usuarios activos. A TikTok le costó nueve meses alcanzar ese hito y a Instagram dos años y medio. La popularidad de ChatGPT no admite discusión. Los textos e imágenes creados por las IAs generativas como ChatGPT, DALL-E, Gemini o AlphaCode son ya casi indistinguibles de las creaciones humanas, su uso es algo habitual: estudiantes para hacer los deberes, políticos en sus discursos, fotógrafos que inventan instantáneas de cosas que jamás ocurrieron y ganan concursos, todo el mundo las utiliza.
Lo que estamos viviendo ahora es apenas la primera etapa en el desarrollo de la IA. Según los expertos, lo que está por venir pronto -la segunda etapa- será muchísimo más revolucionaria. Y la tercera y última, que podría ocurrir en muy poco tiempo después de aquella, es tan avanzada que alterará completamente al mundo, incluso a costa de la existencia del ser humano.
Es la fase actual.
La categoría más básica de IA es más conocida por sus siglas en inglés: ANI, por "Artificial Narrow Intelligence". Se llama así porque se enfoca estrechamente en tareas únicas, trabajos repetitivos dentro de un rango predefinido por sus creadores. Los sistemas ANI generalmente se entrenan utilizando un gran conjunto de datos (por ejemplo de internet) y pueden tomar decisiones o realizar acciones basadas en ese entrenamiento.
Una ANI puede igualar o superar a la inteligencia humana pero solo en tareas específicas, por ejemplo, los programas de ajedrez que usan IA. Son capaces de vencer al campeón mundial de ajedrez pero son incapaces en cualquier otra tarea.
Es por eso que también se la conoce como "IA débil". Todos los programas y herramientas que utilizan IA hoy, incluso las más avanzadas y complejas, son formas de ANI. Están en todas partes: smartphones llenos de apps inteligentes, mapas con GPS que te permiten ubicarte en cualquier lugar del mundo o saber el clima, hasta los programas de música y videos que conocen tus gustos y te hacen recomendaciones.
También los asistentes virtuales como Siri y Alexa son formas de ANI. Al igual que el buscador de Google y el robot que limpia tu casa. El mundo empresarial también utiliza mucho esta tecnología. Se usa en las computadoras internas de los coches, en la manufactura de miles de productos, en el mundo financiero e incluso en hospitales, para realizar diagnósticos. Incluso sistemas más sofisticados de autos sin conductor o el propio ChatGPT son formas de ANI, ya que no pueden operar fuera del rango predefinido por sus programadores, no pueden tomar decisiones por su cuenta.
Esta categoría -Artificial General Intelligence- se alcanza cuando una máquina adquiere capacidades cognitivas a nivel humano, es decir, cuando puede realizar cualquier tarea intelectual que realiza una persona. También se la conoce como "IA fuerte".
Es tal la creencia de que estamos al borde de alcanzar este nivel de desarrollo, que más de 1.000 expertos en tecnología pidieron en 2023 a las empresas de IA que dejaran de entrenar, por al menos seis meses, a aquellos programas que sean más poderosos como, por ejemplo, GPT-4. En la carta, publicada por la organización sin fines de lucro Future of Life Institute, los expertos dijeron que si las empresas no acceden rápidamente a frenar sus proyectos los gobiernos deberían intervenir para instituir una moratoria hasta que se puedan diseñar e implementar medidas de seguridad sólidas.
El gobierno de Estados Unidos convocó a los dueños de las principales empresas de IA - Alphabet, Anthropic, Microsoft, y OpenAI- para acordar "nuevas acciones para promover la innovación responsable de IA". La IA es una de las tecnologías más poderosas de nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos.
El Congreso de EE.UU., por su parte, convocó al CEO de OpenAI Sam Altman, a responder preguntas sobre ChatGPT. Durante la audiencia en el Senado, Altman dijo que es "crucial" que su industria sea regulada por el gobierno a medida que la IA se vuelve "cada vez más poderosa". El problema es que no existe un cuerpo colegiado de expertos que deciden cómo regular los temas de IA como sí ocurre, por ejemplo, con los asuntos sobre Cambio Climático (IPCC).
El CEO de NVDIA, Jensen Huang, aseguró hace pocos días que la AGI se alcanzará en menos de cinco años.
La preocupación de estos científicos tiene que ver con la reconocida teoría de que, una vez alcanzada la AGI, de inmediato llegará el siguiente nivel: la Artificial Superintelligence, que ocurre cuando la inteligencia sintética supera a la humana. A partir de aquí todo son suposiciones y opiniones encontradas...
El filósofo de la Universidad de Oxford y experto en IA Nick Bostrom define a la súper inteligencia como "un intelecto que es mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales".
La teoría es que cuando una máquina logre tener una inteligencia a la par de la humana, su capacidad de multiplicar esa inteligencia de forma exponencial a través de su propio aprendizaje autónomo hará que en poco tiempo nos supere ampliamente, alcanzando así el nivel ASI. "Los humanos para ser ingenieros, enfermeros o abogados debemos estudiar por muchísimo tiempo. El tema con la AGI es que es escalable de inmediato".
Existen, en general, dos líneas de pensamiento con relación a la ASI: están los que creen que esta superinteligencia será beneficiosa para la humanidad y los que creen todo lo contrario. Entre estos últimos estaba el famoso físico británico Stephen Hawking, quien creía que las máquinas súper inteligentes representaban una gran amenaza. "El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana", le dijo a la BBC cuatro años antes de morir.
Sin embargo, en el bando opuesto creen todo lo contrario.
Uno de los mayores entusiastas de la ASI es el inventor y autor futurista estadounidense Ray Kurzweil, investigador de IA en Google y cofundador de la Universidad de la Singularidad en Sillicon Valley (la "singularidad" es otra manera de llamar a la era en la que las máquinas se tornan súper inteligentes). Kurzweil cree que los humanos podremos utilizar la IA súper inteligente para superar nuestras barreras biológicas, mejorando nuestras vidas y nuestro mundo. Incluso predijo que para el año 2030 los humanos lograremos alcanzar la inmortalidad gracias a los nanobots (robots ínfimamente pequeños) que actuarán dentro de nuestro cuerpo, reparando y curando cualquier daño o enfermedad, incluyendo el causado por el paso del tiempo.
En su declaración ante el Congreso, Sam Altman de OpenAI, también se mostró optimista sobre el potencial de la IA, señalando que podría resolver "los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer".
En el medio de ambas tendencias están personas como Geoffrey Hinton que creen que la IA tiene enorme potencial para la humanidad, pero consideran que el ritmo de desarrollo actual, sin regulaciones y límites claros, es "preocupante". En una declaración enviada a The New York Times anunciando su salida de Google, Hinton, dijo que ahora lamentaba el trabajo que había realizado, porque temía que "malos actores" utilizaran la IA para hacer "cosas malas".
En fin, llegaremos a esta "tercera" etapa de la Inteligencia Artificial y seguiremos sin ponernos de acuerdo. Por suerte o por desgracia, llegado ese momento las decisiónes futuras quizás ya no estén en nuestras manos y puede que sea lo mejor. Yo prometo que voy a dejar de hablar de "IAs" por un tiempo pues ya estoy saturado (creo que es la décima vez que lo prometo). 😋
Comentarios
"...la AGI se alcanzará en menos de cinco años" pobres ilusos humanos! 😎
Si no lo habéis hecho, os invito a leer este blog "de pe a pa", es de lo mas importantes jamás escritos en esta web y explica lo que va a pasar en la próxima década. No tengo ninguna "bola de cristal" pero solo os recuerdo que hace menos de dos años (2022) las "IAs" no exitían y ahora ya son el centro de todo.
Escribo este comentario para volver a leerlo en el 2025 y ver lo "inocentes" que somos. 😋 #memoria
Yo también creo que la ASI va a suponer el fin de la humanidad. En lugar de controlar nosotros a las máquinas, ellas nos van a controlar. Sería algo horroroso y tengo claro que ese mundo no se lo podemos dejar a nuestros hijos y nietos.