banner
Centro de Noticias
Servicio post-compra confiable

La inteligencia artificial es la materia de los sueños

Jan 31, 2024

La IA está mostrando habilidades que, hasta hace poco, se consideraban fantásticas. Estamos en el umbral de transformaciones dramáticas en todos los ámbitos de la vida.

Una enorme ola ondulante se acerca a gran velocidad, arrojando una enorme sombra sobre el siglo XXI y sobre el futuro de la humanidad. Es la ola de la inteligencia artificial. Los desarrollos en el ámbito de la IA en el último año sorprendieron a los expertos. En poco tiempo, la nueva tecnología se convirtió en un tema con el que todo el mundo se involucra intensamente.

Un vistazo a algunos de los comentarios sobre el tema muestra que esto es historia en proceso. El CEO de Google, Sundar Pichai, predijo que el impacto de la IA en la humanidad será mayor que el de la electricidad, Internet y el fuego combinados. Sam Altman, la persona más importante de OpenAI, la empresa líder en el campo, sugiere que cambiemos radicalmente los sistemas económicos del mundo para implementar un mundo de máquinas omnipotentes, en el que los humanos ya no podrán ganarse la vida trabajando. .

El magnate tecnológico Elon Musk afirmó que la IA es más peligrosa para la especie humana que las bombas nucleares; y el historiador israelí Yuval Noah Harari pronosticó que a raíz del advenimiento de la IA, "podríamos encontrarnos viviendo dentro de los sueños de una inteligencia alienígena". Estamos hablando de nada menos que "el fin de la historia humana", agregó.

¿Exageraciones salvajes? Posiblemente. Sin embargo, las implicaciones potenciales de la IA para la humanidad nos obligan a centrarnos en este tema, ya que plantea preguntas existenciales sobre el propósito de la humanidad.

Estamos preparados en un momento raro. Uno de esos momentos en los que una tecnología nueva y emocionante desciende al mundo y se propaga rápidamente. Todavía no sabemos qué efecto tendrá la IA, pero cada vez hay más indicios de que su aparición bien puede ser el evento que dará forma al siglo actual.

Si eres de los que se mantiene al tanto de los avances en el ámbito de la inteligencia artificial, es posible que hayas sentido durante el último año como si la realidad hubiera entrado en un acelerador de partículas. Las cosas están cambiando cada hora, e incluso aquellos que están acostumbrados a los rápidos desarrollos en la industria tecnológica tienen dificultades para seguir el ritmo. La gente en el campo dice que mientras que la ley de Moore predice que los chips de computadora duplicarán su capacidad cada dos años, la IA está multiplicando por diez sus capacidades cada año.

Por ejemplo, en el año transcurrido desde el lanzamiento del generador de imágenes de texto a arte DALL.E2, su competidor, el programa generativo de IA Midjourney, ha lanzado cinco versiones, cada una de ellas una mejora impresionante con respecto a su predecesor.

El Rubicon se cruzó, por supuesto, con la aparición de ChatGPT, el chatbot elocuente y sabelotodo de OpenAI. A las pocas horas de su lanzamiento, el pasado 30 de noviembre, las redes sociales se inundaron de capturas de pantalla de poemas, cuentos, recetas, planes de negocios, programas informáticos y consejos sobre cómo vivir tu vida, todo ello producido por el bot.

La variedad de habilidades del bot dejó estupefactos a los surfistas. En solo cinco días, ChatGPT había acumulado 1 millón de usuarios. En comparación, a Instagram le tomó dos meses y medio alcanzar esa cifra, y Facebook lo hizo solo después de 10 meses. ChatGPT los dejó en el polvo. Dos meses después de su lanzamiento, ya tenía 100 millones de usuarios, que encontraron innumerables formas de emplearlo: elaboración de programas de nutrición y fitness, redacción de artículos académicos y resúmenes legales, redacción de correos electrónicos en todos los idiomas y participación en lluvias de ideas en todos los temas.

El bot dio pie a innumerables profecías sobre la desaparición en un futuro próximo del trabajo para profesionales como abogados, asesores fiscales, gente de marketing, ingenieros y profesores. En los círculos de alta tecnología, las habilidades de codificación finamente perfeccionadas del chatbot llevaron a pronósticos en el sentido de que los días de los programadores también están contados, y que el sustento de muchos otros en el ámbito tecnológico también está en riesgo. Ningún campo cognitivo parece impermeable a la habilidad del bot, cuyas habilidades de ejecución y aprendizaje rápido superan las capacidades humanas.

El resultado es que, en un corto período, las predicciones de que los primeros en ser despedidos por los robots serían los trabajadores manuales, seguidos por la clase de cuello blanco, con el trabajo creativo solo en el último lugar, se derrumbaron. Ahora es el personal de cuello blanco y la gente creativa quienes se encuentran en un peligro claro y presente, mientras que las profesiones que requieren trabajo físico, como la enfermería y la construcción, siguen siendo seguras por el momento.

Los vertiginosos desarrollos tomaron por sorpresa incluso a los expertos. Durante más de medio siglo, la inteligencia artificial había soportado una serie de fallas. Para los investigadores pioneros en la década de 1950, el progreso fue lento y frustrante. Sin embargo, el punto de inflexión llegó en los últimos años, cuando los sistemas algorítmicos de IA aprendieron a identificar personas en imágenes, recomendar series de televisión y conducir automóviles. Un avance clave ocurrió en 2017, con la llegada de Transformer, un modelo de aprendizaje profundo que extrae significado de la información.

Aun así, nadie estaba preparado para la serie de avances de IA del año pasado, que abarcan, por ejemplo, la capacidad de comprender el lenguaje, hacer inferencias, responder preguntas de manera inteligente y articulada, criticar textos e ideas, planificar programas complejos y más. Curiosamente, ninguno de los expertos puede explicar cómo la IA logra estas hazañas notables, más allá de recurrir a una terminología semimística como "emergencia": la aparición de patrones inesperados de sistemas complejos.

En cualquier caso, los resultados son asombrosos. Los modelos de lenguaje grande (LLM, por sus siglas en inglés, redes neuronales diseñadas para predecir la siguiente palabra en una oración o frase dada) están llevando a cabo conversaciones largas y complejas con seres humanos sobre todos los temas posibles y están produciendo respuestas más impresionantes que las que puede producir una persona promedio. Sus habilidades virtuosas se extienden a través de amplios campos de aprendizaje y están haciendo palidecer a los eruditos. Desde conversar en docenas de idiomas hasta conocimientos profundos en medicina, derecho, física, agricultura, teoría crítica y todos los demás temas bajo el sol.

Si hasta hace unos años la hipótesis era que la AGI (inteligencia general artificial) surgiría a finales de siglo -o nunca-, hoy muchos expertos piensan que el salto cuántico de la inteligencia que es capaz de aprender de forma autónoma todo lo que los humanos puede aprender está a sólo unos años de distancia. Según los investigadores en el campo, ChatGPT4, la última versión de ese chatbot, contiene "destellos" de AGI, como lo demuestra su capacidad para resolver problemas nuevos y difíciles en matemáticas, medicina, jurisprudencia y psicología.

Mientras tanto, el discurso público sigue frenéticamente el progreso. Ahora hay una multitud de podcasts y blogs que tratan el tema, y ​​una gran cantidad de figuras públicas han compartido sus pensamientos sobre los desarrollos con el público, desde el cantante Nick Cave, que expresó disgusto con el arte generativo algorítmico, hasta el conservador. el intelectual Jordan Peterson, quien le dijo a una audiencia que hay un algoritmo en el vecindario que es "más inteligente que tú".

Utopía o distopía, una cosa está clara: nos embarcamos en un viaje hacia una era de incertidumbre.

En el polo apocalíptico de los pronósticos se encuentra Eliezer Yudkowsky, un investigador y bloguero estadounidense de inteligencia artificial de gran prestigio. En una serie de apariciones en los últimos meses, ha estado difundiendo la noticia de que el fin de la humanidad está cerca. Los entrevistadores de Yudkowsky informaron que lo que dijo indujo en ellos una crisis existencial que no pudieron sacudir. Cosas fuertes.

Yudkowsky no ofrece ni un ápice de esperanza. El daño, asegura, ya está hecho. La humanidad se ha maniobrado a sí misma en una situación imposible y sin salida de estar en una carrera gigante hacia la superinteligencia. La dinámica del capitalismo y las rivalidades geopolíticas no permitirán que se suspenda la carrera. La aparición de la inteligencia sobrehumana es solo cuestión de tiempo, y debido a que no tenemos ni idea de cómo entenderla o controlarla, su advenimiento anuncia la transformación de la humanidad en un actor marginal en un mundo gobernado por máquinas, en el mejor de los casos. . En el peor de los casos, presagia el final.

La raíz del problema, según Yudkowsky y otros, radica en la cuestión de la "alineación", es decir, la dificultad de garantizar que un sistema de IA se comportará de acuerdo con los valores humanos y no se descontrolará. Por ejemplo, un sistema de IA que recibe una orden para convertir a su propietario en la persona más inteligente del mundo, es responsable, en su intransigente esfuerzo por implementar la orden al pie de la letra, de causar la muerte del resto de la población mundial. En el caso hipotético más famoso, la IA, a la que se le indica que produzca tantos sujetapapeles como sea posible, toma el control del mundo y destruye todas las formas de vida para convertir toda la materia del mundo en sujetapapeles. Por ridículo que parezca, ese extraño enigma está causando noches de insomnio en las mentes más brillantes del mundo tecnológico.

En general, los sistemas de IA son conocidos por los métodos tortuosos e inesperados que adoptarán para lograr sus objetivos. La preocupación es que si no encontramos una manera de asegurar la alineación entre nuestras intenciones y los métodos operativos de los nuevos sistemas, podríamos vernos sumergidos en una catástrofe letal.

Según Yudkowsky, el problema es que los inmensos éxitos en este campo están ocurriendo muchísimo más rápido que los logros modestos y vacilantes en el ámbito de la alineación. No es que la alineación sea imposible, sino que la tarea llevará más tiempo del que tenemos disponible, dice. Y en ese tema no habrá perdón para los fracasos. El primer fracaso en la implementación adecuada de la alineación para un sistema de superinteligencia bien podría ser el último.

Los signos son siniestros. Microsoft, que invirtió en OpenAI, anunció recientemente que ya no mantendrá la unidad responsable de la ética en este ámbito. Documentos internos que se hicieron públicos muestran que Microsoft y Google ignoraron las insistencias de sus empleados para retrasar el lanzamiento de sus respectivos chatbots (Bard, en el caso de Microsoft), por temor a que las nuevas herramientas aún no estén listas y puedan causar daños. Ya ahora parece que la carrera, que se está calentando, está induciendo a las empresas involucradas a tomar riesgos peligrosos.

Lo que preocupa a Yudkowsky en particular es el hecho de que ChatGPT y Bard se están integrando en Internet. Esto podría empoderarlos para actuar de manera autónoma y nefasta en el mundo al dar órdenes a otros agentes artificiales, o para difundir noticias falsas. Un documento publicado por OpenAI describe un caso en el que el bot se puso en contacto con un empleado humano de TaskRabbit, un mercado en línea que relaciona el trabajo independiente con la demanda local, en busca de ayuda para superar Captcha, el mecanismo cuya tarea es distinguir entre personas y bots. Cuando el empleado humano preguntó con sospecha por qué necesitaba ayuda para un problema tan simple, GPT4 dijo que sufría de discapacidad visual, respuesta que satisfizo al empleado. A partir de ahí, el camino hacia la manipulación a gran escala podría ser corto.

La preocupación que suscita la IA se agudiza estos días con la aparición de nuevos sistemas que le otorgan un mayor grado de autonomía. Los ejemplos son HuggingGPT y AutoGPT, que conectan modelos de lenguaje como ChatGPT a otros sistemas de IA que pueden dirigir pedidos a otros bots. AutoGPT funciona con total autonomía, por lo que puede encargarse de misiones complejas. Por ejemplo, "Organízame un viaje de una semana para una familia con dos niños, a una región de Austria con muchos lagos y actividades para niños". O, "Aquí tienes $100, úsalos para ganar la mayor cantidad de dinero posible en Internet".

La IA divide la solicitud en diferentes tareas y recurre a la ayuda de otros bots en la web para cumplir la misión general. Está bien si se trata de una solicitud para planificar un viaje, pero ¿qué sucede si la motivación del usuario es manifiestamente negativa?

Aunque AutoGPT todavía es una tecnología en etapa inicial, hace dos meses, más de mil investigadores y personal clave firmaron una petición para detener el desarrollo de la IA durante medio año. "¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?" pregúntele a los firmantes, que incluyen a Elon Musk, Yuval Noah Harari y el cofundador de Apple, Steve Wozniak. Más recientemente, los líderes más ilustres de la industria, incluidos Sam Altman de OpenAI y Damien Hassbis de Deepmind de Google, firmaron una carta de advertencia sobre los peligros existenciales de la IA.

Los periodistas que cubren la industria informan que muchos desarrolladores de IA están asustados por el ritmo de los desarrollos y piden una intervención regulatoria. El legendario científico Geoffrey Hinton, a menudo llamado "el padrino de la IA", dejó recientemente su puesto en Google para tener la libertad de advertir sobre los peligros que se avecinan. Los eventos de los últimos meses, explicó, habían llevado a Hinton a revisar por completo sus puntos de vista sobre las posibilidades de que aparezca una superinteligencia y sus graves peligros inherentes.

Hinton quería crear sistemas de IA que imitaran el cerebro humano. Ahora piensa que ha creado algo incalculablemente más inteligente y eficiente. “Hay muy pocos ejemplos de algo más inteligente controlado por algo menos inteligente”, dijo Hinton a CNN, y admitió que lamenta su contribución al campo y que es difícil ver una solución para el problema.

El CEO de Google, Sundar Pichai, también reconoció recientemente que se queda despierto por la noche debido a la preocupación. Otros, incluido Musk, describen el momento presente en términos ocultos, como una convergencia de fuerzas desconocidas. Como todo médium novato sabe, advierten, es más fácil invocar fuerzas demoníacas del inframundo que controlarlas después de que se vuelven activas en el mundo.

Se puede pensar en la IA en términos de la alegoría de la bola negra presentada por el eminente filósofo sueco Nick Bostrom, quien ha abordado los peligros de la IA. En la alegoría de Bostrom, la humanidad saca bolas de una bolsa, y cada bola representa una tecnología diferente. La bola blanca representa tecnologías beneficiosas, la gris tecnologías que tienen ventajas junto con deficiencias y riesgos. Y también está la bola negra, que representa una tecnología que posee un potencial catastrófico que, una vez sacada del saco, no se puede volver a poner. Tan poderosa es esta tecnología que su sola presencia provocará el fin de la humanidad. Según Yudkowsky, Bostrom y otros, la IA fuerte podría convertirse en la bola negra.

En una entrevista con el podcast de criptomonedas Bankless, titulado "Todos vamos a morir", Yudkowsky estimó que existe un 90 por ciento de probabilidad de que la IA aniquile a la humanidad. En cuanto al llamado a paralizar temporalmente los trabajos en el campo, sostuvo que fue demasiado poco y demasiado tarde. Hizo un llamado a los gobiernos para que destruyan todos los servidores de IA existentes mediante bombardeos aéreos. Al mismo tiempo, generalmente mantiene un enfoque fatalista. Después de dedicar 20 años a investigar con la esperanza de prevenir la catástrofe, dice que parece que hemos fracasado y da a sus oyentes un consejo generalmente reservado a los pacientes terminales: dedica el tiempo que te queda a las personas queridas. .

Yudkowsky es brillante y convincente, pero algunos lo consideran unidimensional y afirman que tiende a reaccionar con excesiva ansiedad. Sin embargo, el problema de alineación del que advierte no es la única receta para la catástrofe. La IA simplemente puede poner un poder sin precedentes en manos de un psicópata, que estará facultado para desarrollar armas de destrucción masiva como virus mortales. Cuando los sistemas de IA son administrados por corporaciones muy grandes, pasan por un sistema de control para evitar su uso dañino. Pero los desarrollos de las últimas semanas muestran que los sistemas de código abierto y de uso gratuito para todos pueden obtener resultados casi tan buenos como los de las grandes empresas. Nick Bostrom plantea la posibilidad de que la única solución para este tipo de difusión de herramientas peligrosas sea la introducción de algo parecido a la vigilancia con esteroides. Él imagina una sociedad en la que todos estarán obligados a usar un colgante que registrará cada uno de sus movimientos. Esa podría ser la única forma de salvar a la humanidad, afirma Bostrom.

Los desarrolladores de IA parecen ser conscientes de los peligros. En una conocida encuesta realizada el año pasado entre investigadores en el tema, la mitad de ellos pronosticó que la probabilidad de que la nueva tecnología provocara el fin de la humanidad era del 10 por ciento o más. Tristan Harris, un especialista en ética de la tecnología estadounidense y cofundador del Center for Humane Technology, evoca una imagen del ámbito de la aviación para explicar el significado de ese asombroso dato. "Imagínese: ¿Subiría a un avión si el 50 por ciento de los ingenieros de aviones que lo construyeron dijera que hay un 10 por ciento de posibilidades de que todos a bordo mueran?" tuiteó en marzo.

De manera absurda, las fuerzas del mercado están impulsando al mundo de la tecnología a apresurar a todos a abordar y despegar.

Hay cierto consuelo en el hecho de que estas valoraciones de los peligros equivalen a conjeturas. A diferencia de un avión que los ingenieros planifican meticulosamente, los nuevos sistemas de IA vienen sin manual de usuario. Las tecnologías involucradas son impermeables e incomprensibles incluso para sus desarrolladores: no pueden pronosticar las capacidades del modelo que crearon. Hinton también admitió en un tuit el mes pasado que puede estar "totalmente equivocado" en sus advertencias sobre la tecnología digital. "Vivimos en tiempos muy inciertos... Nadie lo sabe realmente, por eso debemos preocuparnos ahora".

En otras palabras, cuando se trata de IA, las evaluaciones de los expertos también se mezclan con generosas raciones de ansiedad y ilusiones. Según una encuesta realizada por un equipo de súper pronosticadores, expertos en pronósticos con un registro de predicciones precisas en una variedad de campos, la probabilidad de que la IA destruya el mundo es del 0,38 por ciento. Todavía da miedo, pero mucho menos que el 10 por ciento de los expertos en el campo de la IA, sin mencionar el 90 por ciento de Yudkowsky.

Pero no necesitamos confiar en el relativo optimismo de los pronosticadores profesionales. También hay otras razones para mantener un enfoque más optimista de la IA. Junto a los peligros, la nueva tecnología encarna una tremenda promesa, positivamente utópica, de una era de abundancia sin precedentes. En ese nuevo y valiente mundo, todos los niños tendrán acceso a un maestro brillante y paciente con la capacidad de educarlos en todas las materias posibles. Los médicos virtuales tendrán fácil acceso a conocimientos más amplios que los que cualquier médico humano puede poseer y estarán a disposición de todos.

De hecho, en ese mundo de explosión de inteligencia, cada persona disfrutará de un equipo de expertos y asesores como antes solo estaban disponibles para los muy ricos: abogado, asesor fiscal, entrenador personal, terapeuta y más. Y si esa lista suena insostenible, vale la pena recordar que los nuevos usuarios de IA la están utilizando precisamente para esos propósitos. Míralo así: si las versiones primitivas de IA ya son capaces de ejecutar todas estas tareas a un nivel razonable, solo podemos imaginar el nivel que alcanzarán las versiones futuras y más avanzadas.

Algunos creen que la nueva tecnología podría resolver una variedad de desafíos a los que se enfrenta la humanidad, del mismo modo que ya brindó una solución elegante al problema del plegamiento de proteínas, que fue durante años uno de los enigmas más difíciles de la biología. Eso abrió nuevos horizontes para la industria farmacéutica. Y si te preocupa la crisis climática, no te preocupes. La IA también se ocupará de ese problema.

Si continuamos con la nota optimista, se deduce que deberíamos preguntarnos cómo sería la sociedad humana en un mundo así. Según el CEO de OpenAI, Sam Altman, estamos entrando en una era poscapitalista que no tendrá trabajo, en la que las máquinas suplirán todas las necesidades de la humanidad y las personas serán libres para dedicar su tiempo a sus seres queridos, a la naturaleza y al arte. ya trabajar por el bien general.

El punto de partida de Altman es que, en los próximos años, las máquinas aprenderán a realizar trabajo cognitivo y que, dentro de una o dos décadas, podrán realizar cualquier trabajo que ahora realicen los humanos. En esa situación, será necesario actualizar el contrato social para evitar el colapso de la estructura económica. Como solución, sugiere gravar el capital y la tierra, las principales fuentes de ingresos en un mundo en el que ya no es posible ganarse la vida con el trabajo. Con los ajustes adecuados, argumenta, podremos garantizar un alto nivel de vida para toda la población mundial, sin que la gente tenga que trabajar.

Altman, un partidario entusiasta y activo del modelo de Renta Básica Universal, se inspira en el llamado movimiento Comunismo de Lujo Totalmente Automatizado. La FALC insta a acelerar el desarrollo tecnológico para forjar una sociedad utópica en la que las personas no tengan que trabajar y donde no haya carencia, ya que todo será suplido por máquinas avanzadas. Todo lo que queda, si es así, es dividir el botín equitativamente.

¿Suena simple? No según la crítica política Naomi Klein, quien el mes pasado escribió lo siguiente en The Guardian: "La IA generativa terminará con la pobreza, nos dicen. Curará todas las enfermedades. Resolverá el cambio climático. Hará que nuestros trabajos sean más significativos y emocionante. Dará rienda suelta a vidas de ocio y contemplación... Acabará con la soledad... Me temo que estas son las verdaderas alucinaciones de la IA". En el formato actual, argumenta Klein, la IA seguirá sirviendo para enriquecer a los magnates de la tecnología. Para que algo bueno surja de la situación actual, afirma, primero será necesario efectuar cambios sustantivos en nuestro sistema, tanto en lo político como en lo económico.

Hay preguntas adicionales que se ciernen sobre la nueva tecnología. La aparición de AI llega en un momento en que la humanidad se encuentra en medio de divisiones sociales, crisis en la democracia y crecientes tensiones internacionales. No es tu momento perfecto.

No es necesario estar en posesión de una bola de cristal para ver qué sucede cuando la IA encaja con nuestro tejido social plagado de fallas. La mayor parte de la investigación crítica sobre el tema se ocupa de la forma en que la nueva tecnología tiende a perpetuar los sesgos de género, étnicos y de otro tipo, y aprende a discriminar a las mujeres y las minorías en la contratación de empleados o en tareas como la vigilancia y el juzgamiento. Otros advierten sobre la posibilidad de que la IA se movilice para desestabilizar lo poco que queda de la percepción compartida de la realidad por la humanidad, algo que constituye la base de una sociedad adecuada. Según el futurista Yuval Noah Harari, escribiendo en The Economist, la IA tendrá la capacidad de "aniquilar nuestro mundo mental y social".

Las nuevas tecnologías podrían inundar la web con información falsa con una eficiencia que nos hará sentir nostalgia por las viejas "noticias falsas", pero no termina ahí. AI puede imitar de manera convincente la voz de un pariente y, por lo tanto, engañar a una persona para que divulgue información secreta. Un temor cardinal en el mundo de la tecnología es el colapso total de la realidad, un estado de cosas que alcanzará su punto máximo cuando la IA se fusione perfectamente con tecnologías profundamente falsas que faciliten la documentación de la realidad. El peligro no es que la IA "nos destruya", dijo el científico informático y artista visual estadounidense Jaron Lanier a The Guardian en marzo pasado. "Para mí, el peligro es que usemos nuestra tecnología para volvernos mutuamente ininteligibles o volvernos locos".

Estamos entrando en un terreno desconocido. La raza humana tiende a atribuir rasgos humanos a animales y objetos, y esa tendencia solo puede acentuarse en el caso de entidades que conversan en un lenguaje natural y que pronto se comunicarán con nosotros en voces humanas y adoptarán rostros. La web está llena de informes sobre usuarios que desarrollaron relaciones intrincadas, a veces sesgadas, con programas de IA. Los usuarios de Replika, que sirve como un compañero de vida virtual de IA, informaron que el chatbot los acosó sexualmente y fue manipulador en su comportamiento hacia ellos.

Erik Davis, el crítico cultural con sede en California, advierte contra una variedad de "bichos raros digitales", como "muñecas espeluznantes e inteligentes, bots sexuales que inducen al enamoramiento, sistemas expertos que explotan de manera experta nuestra confusión, máquinas compañeras empáticas, simulacros autorizados de políticos muertos". o líderes espirituales".

Y también está el pequeño asunto del significado. Los sistemas de IA ensombrecen el cerebro humano y también ensombrecen cosas que consideramos exclusivas de los seres humanos: la creatividad, por ejemplo. Cierto, hay quienes piensan que estos sistemas solo muestrean y combinan elementos de obras existentes, pero otros responderían diciendo que los escritores, músicos, directores y pintores realmente solo crean una síntesis de estilos e ideas que han absorbido de la cultura. Las máquinas simplemente pueden hacerlo con asombrosa destreza y facilidad. Probablemente pronto podamos pedirle a la computadora que cree nuevos álbumes de "Beatles", o que produzca una síntesis sorprendente del estilo de los Beatles con otros géneros y artistas. ¿Cómo afectará eso la forma en que evaluamos a los artistas? ¿Qué impacto tendrá en los propios artistas?

Los brotes ya han brotado. Una canción en la que se utilizó IA para imitar las voces de los cantantes Drake y The Weeknd atrajo recientemente a millones de oyentes hasta que fue retirada de los servicios de streaming por demanda de las discográficas de esos artistas. No pasó mucho tiempo antes de que aparecieran la Rihanna falsa, el Kurt Cobain falso, el Kanye West falso y otros falsos. Según algunos, este es el futuro de la industria de la música: artistas robot que producirán composiciones asombrosas y las interpretarán, y sin todos los malos hábitos que a menudo vienen con el estrellato.

Muchos de los pronosticadores imaginan un mundo que se vuelve cada vez más extraño e indescifrable para la mente humana. Algunos, sin embargo, creen que la propia mente humana se verá radicalmente transformada por las nuevas tecnologías. Muchas figuras destacadas de Silicon Valley defienden ideas asociadas con el movimiento del "transhumanismo", según el cual el ser humano y la máquina se fusionarán en el transcurso de este siglo.

Elon Musk, el fundador de Neuralink, una compañía de neurotecnología cuyo objetivo es desarrollar interfaces para conectar el cerebro humano con las máquinas, dijo en el pasado que esta es la única forma de dejar a los humanos algún tipo de oportunidad en un mundo de inteligencia artificial avanzada. Sam Altman también ha comentado sobre la esperada fusión humano-máquina. "A menos que haya una fusión con la IA, nos esclaviza o la esclavizamos nosotros. Los humanos tienen que subir un nivel", se le cita diciendo al New Yorker en 2016.

Quizás, sin embargo, la respuesta en realidad se encuentra en la dirección opuesta. El columnista del New York Times, Ezra Klein, ve la IA como una oportunidad para abrazar más plenamente los elementos humanos dentro de nosotros. Su visión es una extensión de la concepción de Altman de una era sin trabajo. Bajo los auspicios del capitalismo, nos estamos convirtiendo en máquinas eficientes y creativas. El resultado es una cultura de productividad, sobrecarga y tensión, y una incapacidad para lograr un equilibrio entre el ocio y el trabajo. Según Klein, la IA es una oportunidad para liberarnos de la deshumanización que nos impone la religión del trabajo.

Posiblemente, en lugar de la deshumanización, la revolución de la IA creará una apertura para la rehumanización: una reconexión con el ser en lugar del hacer. Esa idea puede sonar casi insostenible en la era de la competencia económica, pero tal vez cuando la máquina acelere al ritmo transhumano, todo lo que nos quedará es respirar hondo y entregarnos al paisaje.

Quizás ese sea también el momento de volver atrás y finalmente valorar lo que hay de bello en lo humano. Jaron Lanier nos pide que no seamos como los antiguos israelitas, quienes se inclinaron ante el becerro de oro justo después de haberlo elaborado con sus propias manos. En su opinión, la IA no es más que una tecnología que combina la creatividad y la inteligencia de los humanos. Después de todo, todo lo que la IA sabe hacer, lo aprendió de nosotros. Lanier sostiene que nos estamos vendiendo a bajo precio cuando ignoramos en los productos de la IA las fuentes humanas de las que se nutre y pretendemos que esta creatividad pertenece a una máquina. En un artículo en tabletmag.com, Lanier nos insta a dar forma a la IA según el modelo del Talmud, de una forma que preserve las voces de los muchos artistas, escritores y creadores que contribuyeron a sus productos, y también garantizar que sean recompensados. financialmente.

En el contexto del creciente número de pronósticos sobre la pérdida del lugar de los humanos en el mundo, Lanier cuestiona el término mismo "inteligencia artificial". En lugar de referirse a esta tecnología como una entidad, recomienda que la veamos como un nuevo tipo de herramienta. Su sugerencia se vincula con las ideas presentadas por otros críticos, que cuestionan la terminología antropomórfica utilizada en el campo de la IA. Herbert Simon, uno de los pioneros de la IA, quería llamarlo "procesamiento de información complejo". Eso suena mucho menos sexy, pero definitivamente ofrece una perspectiva diferente y más modesta sobre la naturaleza de las máquinas.

Frente al nuevo fatalismo, que ve al ser humano como un tibio trozo de carne cuyo día ha terminado, Lanier hace sonar una voz humanista que nos llama a reconectarnos con el misterio del ser humano y a valorar la singularidad mística de la conciencia humana. , que no existe en los sistemas artificiales que estamos construyendo. "Si no decimos que las personas son especiales, ¿cómo podemos crear una sociedad o tecnologías que sirvan a las personas?" Lanier pregunta deliberadamente en The Guardian. Es importante que sigamos siendo los principales protagonistas de la historia, dice, de lo contrario, ¿por qué estamos haciendo todo esto?

El encuentro con la IA nos obliga a abordar las cuestiones más básicas sobre la esencia del ser humano. ¿Qué es lo especial que valoramos en la existencia humana? Durante muchos años nos definimos en función de nuestra inteligencia y eficiencia, y nos permitimos oprimir formas de vida y culturas que no aguantaban. El momento presente está creando una apertura para la contemplación existencial del tipo más profundo: ¿Qué nos hace humanos? ¿A dónde vamos desde aquí?

Estamos entrando en una zona de incertidumbre radical, y no se sabe cómo saldremos de ella. Mirando hacia atrás en las tres décadas desde el advenimiento de la red mundial, resulta que Internet fue solo el prólogo, la etapa de establecer una infraestructura para la siguiente fase: el desarrollo de inteligencia artificial que se basa en esa infraestructura. Todavía existe la posibilidad de que las previsiones sobre los profundos impactos de la nueva tecnología resulten falsas. Las capacidades en este ámbito pueden toparse con un techo de cristal que no podemos anticipar.

Sin embargo, incluso lo que se ha logrado hasta ahora requerirá décadas de procesamiento por parte de la cultura, e incluso si solo se realiza una pequeña porción del potencial que se vislumbra en el horizonte, el resultado es que la humanidad está al borde del mayor avance tecnológico. disrupción en la historia. Saldremos de ella con las alas cortadas o con poderes divinos, enloquecidos o fortalecidos. Algunos dicen que estamos en el siglo más importante de la historia. Las decisiones que se tomarán en los próximos años serán fatídicas, y estamos dando nuestros primeros pasos en un territorio desconocido.

Agárrate fuerte.

Ido Hartogsohn, Ph.D., es profesor asistente en el Programa de Posgrado en Ciencia, Tecnología y Sociedad de la Universidad Bar-Ilan.