Mercados e Inteligencia Artificial

Pia Malaney

Imagen: iStock


24 DE ABRIL DE 2023 | TECNOLOGÍA E INNOVACIÓN

¿Qué sucede cuando fusionamos, por primera vez, agentes artificialmente inteligentes con nuestro mercado o estructuras políticas?

Ha sido una fuente de cierto consuelo que los humanos hayan sido claramente más inteligentes en general que incluso nuestras máquinas más avanzadas. Eso fue así hasta hace muy poco.

En un breve período de tiempo, entre junio de 2020 y noviembre de 2022, OpenAI lanzó una serie de interfaces e invitó a la población en general a jugar con dos nuevos modelos de aprendizaje automático (ML). Dos iniciativas, Dall-E y ChatGPT, permitieron a la gente común usar medios humanos naturales para interactuar directamente con los motores de inteligencia artificial, evitando la necesidad de capacidad de codificación o de familiaridad con la informática más allá de la navegación web. Los resultados fueron, para muchos, una revelación. De repente, pudieron entender cuán poderosa se había vuelto la IA rápidamente.

Cuando Elon Musk tuiteó enigmáticamente hace unos meses "BasedAI", centró la atención en las implicaciones políticas de los nuevos y poderosos modelos de lenguaje grande. Mezclado con asombro por el poder de ChatGPT, había un murmullo subyacente sobre su sesgo anticonservador, su llamado "despertar".

¿Pero de qué se trataba todo esto? Si bien los memes pueden parecer tontos y oscuros, en realidad eran referencias a una discusión entre una pequeña colección de pioneros de la IA que comenzó en serio en una conferencia en Puerto Rico sobre la seguridad de la IA.

Dos sesiones del domingo 4 de enero de 2015 fueron particularmente importantes. Estos reunieron a Elon Musk, Nick Bostrom, Eliezer Yudkowski, Demis Hassabis, Jaan Taalin y otros para discutir la seguridad de la IA a nivel humano y más allá. La reunión se distinguió porque probablemente era la primera vez que lo que se había visto como una preocupación académica de nicho de pequeños grupos de futuristas de IA en East Bay de San Francisco chocó con industriales multimillonarios (por ejemplo, Musk) e intelectuales públicos con plataformas personales masivas. (por ejemplo, Sam Harris). De los jugadores principales durante los próximos 8 años, solo Sam Altman parece no haber estado presente.

AI Dirección y Alineación.

Cualquier motor de IA se guía por valores tanto implícitos como explícitos. Un motor de IA entrenado en periódicos indios en inglés pensará que Sanjay y Sunita son nombres genéricos, mientras que los periódicos de Nueva Zelanda podrían decir lo mismo de Oliver y Amelia. Este es un ejemplo de valores pasivos que se heredan en función de cómo se entrenan los modelos. Pero el punto de Musk apuntaba a una segunda capa. "Woke AI" fue en efecto una excavación en los modelos cuyo poder parece estar degradado al requerir que el modelo priorice los valores ideológicos de los creadores de IA por encima del cumplimiento de solicitudes y la satisfacción del usuario.

La idea de que un sistema ML artificialmente inteligente no debe simplemente hacer lo que se le dice es generalmente aceptada por todos en el campo. Nadie cree que un crupier de blackjack robot deba obedecer literalmente cuando un cliente dice "Pégame" en sus instrucciones al crupier para obtener una carta adicional. Pero si a ese patrón se le debe decir que su uso de "lenguaje peligroso" no será reconocido hasta que se libere de la "violencia implícita" en su discurso y reformule su solicitud es un asunto completamente diferente.

Hubo una gran cantidad de quejas sobre el supuesto sesgo político de Chat GPT, y es posible que Musk se sintiera impulsado a invertir en IA por su preocupación sobre este "despertar". Pero se debe tener en cuenta que se proyecta que el mercado global de IA alcance los $ 267 mil millones para 2027. [1] Los modelos de lenguaje grande son costosos de entrenar y se ha estimado que ChatGPT cuesta aproximadamente $100,000 por día para funcionar. Pero el impacto en la productividad puede ser potencialmente muchos múltiplos de eso. Es por eso que incluso antes de que Musk comience su aventura, ya estamos viendo a casi todos los gigantes tecnológicos tratando de posicionarse para obtener una parte de este mercado.

Microsoft, uno de los principales financiadores de OpenAI, está incorporando la tecnología en su motor de búsqueda Bing, así como en otros programas. Google, que ha estado desarrollando su modelo de lenguaje para aplicaciones de diálogo, LaMDA durante un tiempo, lanzó recientemente su AI Chatbot Bard. Algunos pueden recordar la historia del ingeniero de Google que afirmó que la tecnología en realidad era consciente, un testimonio del poder de estos grandes modelos de lenguaje para reproducir respuestas e interacciones similares a las humanas.

El lanzamiento comercial de estos chatbots y la conciencia repentinamente generalizada de cuán poderosas son sus capacidades han revigorizado el debate sobre los peligros de la inteligencia artificial hostil y la necesidad de una "alineación de la IA", dirigiendo la IA hacia las metas y objetivos previstos. En una aparición de podcast ampliamente discutida en el podcast de Bankless, Eliezer Yudkowsky, investigador de IA desde hace mucho tiempo y fundador del Instituto de Investigación de Inteligencia de Máquinas (MIRI), describió estos desarrollos como llevándonos más lejos en el camino hacia el fin del mundo.

Historia de la IA

La ironía es que la propia OpenAI, la empresa que desarrolló ChatGPT y su mucho más potente sucesor GPT-4, se inició como una organización sin fines de lucro financiada en parte por Elon Musk en respuesta a que Yudkowsky lo convenció de los peligros de la IA no alineada y su capacidad para acabar con la humanidad. El objetivo principal de la organización sin fines de lucro era crear una "IA segura", alineada con la prosperidad humana. El movimiento Altruismo Efectivo (EA), que se hizo famoso con la caída de uno de sus principales donantes, Sam Bankman Fried, surgió de la llamada comunidad racionalista, fundada en parte por Yudkowsky. La filantropía, según el movimiento EA, debe orientarse hacia donde los recursos pueden tener el rendimiento más efectivo. Si la IA hostil amenaza la existencia misma de la humanidad, seguramente los mejores beneficios provendrían del desarrollo de formas de proteger a la humanidad de este destino, argumentando a favor de la inversión de recursos considerables para la investigación de la alineación de la IA. El camino más peligroso, desde esta perspectiva, sería dar a conocer ampliamente la investigación de la IA y abrirla a un mayor desarrollo comercial con fines de lucro, con poca o ninguna preocupación por la seguridad de la IA.

Desde entonces, OpenAI ha pasado de ser una organización sin fines de lucro a una organización con fines de lucro limitada y Elon Musk renunció a su directorio. Sam Altman, uno de los fundadores y actual director ejecutivo, se ha centrado durante mucho tiempo en el desarrollo de la Inteligencia General Artificial (AGI), sistemas de IA que son tan o más inteligentes que los humanos. Dados los orígenes de OpenAI, él, por supuesto, no desconoce el escenario del Apocalipsis de la IA que Yudkowsky y otros están destacando, pero afirma creer que los beneficios superarán con creces los costos, tuiteando en diciembre: “Habrá momentos aterradores a medida que avanzamos hacia Sistemas de nivel AGI e interrupciones significativas, pero las ventajas pueden ser tan sorprendentes que bien vale la pena superar los grandes desafíos para llegar allí”. Se ha centrado principalmente en las implicaciones económicas de AGI para la mano de obra, un problema para el que ha sugerido la Renta Básica Universal (UBI) como la solución para financiar y ayudar a desarrollar la investigación experimental sobre UBI.

¿Qué tan cerca estamos de lograr la visión de AGI de Altman? Los investigadores de Microsoft al describir su trabajo con GPT4 afirman: “Demostramos que, más allá de su dominio del lenguaje, GPT-4 puede resolver tareas novedosas y difíciles que abarcan matemáticas, codificación, visión, medicina, derecho, psicología y más, sin necesidad de ningún tipo especial. incitación. Además, en todas estas tareas, el rendimiento de GPT-4 es sorprendentemente cercano al rendimiento a nivel humano y, a menudo, supera con creces a modelos anteriores como ChatGPT. Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría verse razonablemente como una versión temprana (aunque aún incompleta) de un Sistema de Inteligencia Artificial General (AGI)”.[2] Si bien es posible que esto aún no sea AGI, es simplemente la iteración actual en un proceso continuo que seguirá desarrollándose. El impacto en el mercado laboral tanto a corto como a largo plazo será complejo.

Si bien Musk ha expresado abiertamente su preocupación de que su inversión de $ 100 millones en una organización sin fines de lucro centrada en la IA segura se haya convertido en una capitalización de mercado de $ 30 mil millones "compañía de fuente cerrada y máxima ganancia controlada efectivamente por Microsoft", su preocupación sobre el sesgo político incrustado en los sistemas actuales parecen ser suficientes para atraerlo a este mercado potencialmente muy lucrativo. Uno debe suponer de su enfoque en la IA "basada" la creencia de que la llamada IA "despertada" refleja un sesgo político, y la IA "cerrada" refleja el control corporativo, en la que la IA "basada" representará la "Verdad". Sin embargo, es difícil imaginar que, después de una exposición de cerca a los desafíos que representa Twitter, con el aumento del discurso racista y antisemita tóxico, Musk realmente tenga una visión tan simplista. De hecho, cuando optó por bloquear la cuenta dedicada al seguimiento de su jet privado, alegando que representaba un riesgo directo para la seguridad personal, puso de relieve la complejidad en torno a cuestiones de “libertad de expresión” y “verdad”. Uno no puede evitar preguntarse si el problema real que atrae a Musk a la competencia de IA tiene más que ver con la economía que con el compromiso con la libertad de expresión.

Las implicaciones para la política, la cultura y la vida cotidiana del rápido desarrollo de la IA, por supuesto, no deben subestimarse. 

A medida que los bots que suenan cada vez más humanos pueden emitir propaganda altamente personalizada a un costo mínimo, incluidos videos y audios falsos, la capacidad de controlar a los malos actores se deteriorará rápidamente. Las implicaciones para el entorno político mundial son aterradoras. Pero la cuestión de si las principales implicaciones de la actual revolución de la IA serán principalmente económicas o políticas, creo que solo está parcialmente relacionada con el debate en curso sobre las implicaciones económicas directas en el mercado laboral, es decir, si a la larga la IA impulsará la productividad humana. y salarios a medida que las personas lo incorporan a las tareas diarias o conducen a un desempleo generalizado al reemplazar a los trabajadores. El futuro depende más del papel que jugarán nuestros marcos económicos en el desarrollo y la estructura de la IA.

Al tratar de comprender los problemas que rodean las redes sociales y la naturaleza tóxica y adictiva de las principales plataformas de hoy, señalé en una publicación anterior el papel que desempeñaron los mercados en llevar Internet desde sus primeras raíces idealistas a un espacio controlado por monopolios corporativos a los que se culpa de instigar el terrorismo y devastar la salud mental de los jóvenes.[3] A medida que los gigantes tecnológicos ingresan a la carrera de la IA, junto con desarrolladores más pequeños que reconceptualizan la capacitación en IA para encajar en el modelo de "software como servicio", surge la pregunta de qué papel podemos esperar que desempeñen los mercados en la definición del entorno dentro del cual esto se desarrollará la tecnología.

IA, mercados, democracia y derecho: el escenario MarketAI en democracias de mercado avanzadas.

Cuando Adam Smith escribió La riqueza de las naciones, su metáfora de la mano invisible fue un claro intento de civilizar el mercado en la mente de sus lectores. Al antropomorfizar el mercado como 'La Mano Invisible', buscó mostrarnos que la fría indiferencia del caos de los mercados podría conceptualizarse como un mecanismo reflexivo, inteligentemente dirigido, conectado a una superinteligencia que trabaja en beneficio del hombre. En el extremo opuesto, el pensador anarquista Peter Kropotkin vio a los humanos a través de la lente de las colonias de hormigas, todos trabajando individualmente por el bien común de la colonia. En ambos escenarios, el mercado y lo político buscan la idea de una coherencia de propósitos desde intereses diversos que le den sentido a la frase E Pluribus Unum.

Pero, ¿qué sucede cuando fusionamos, por primera vez, agentes artificialmente inteligentes en nuestro mercado o estructuras políticas? La respuesta corta es que no hay garantía de que seguirán funcionando de la misma manera en este nuevo régimen. El mercado de Adam Smith bien puede compararse con una teoría física clásica que de repente es empujada al reino relativista o cuántico. No es que la teoría se muestre incorrecta per se, pero puede volverse rápidamente evidente que se ha excedido el dominio de validez en el que se espera que funcione la teoría.

Exploremos el siguiente escenario, que denominamos Escenario MarketAI, que se basa en dos suposiciones:

1. No existen barreras o limitaciones naturales que obliguen al aprendizaje automático a estancarse prematuramente antes de alcanzar el AGI.

2. Que el mercado capture los principales proyectos de IA antes de que se realicen cambios significativos en las leyes sobre deberes fiduciarios para con los accionistas.

Para ser claros, no sabemos lo suficiente como para saber si existe alguna barrera tecnológica o científica que impide que los sistemas ML actuales logren una verdadera inteligencia sobrehumana. Tampoco vemos ninguna razón por la que no podamos hacer leyes para cambiar el deber fiduciario singular de perseguir el valor de los accionistas dentro de la especificación técnica de la ley. Por lo tanto, si se viola cualquiera de los dos supuestos anteriores, no vemos la necesidad de ir más allá de nuestra etapa actual en el camino del escenario MarketAI. Lo que estamos diciendo, sin embargo, es que esta puede ser una de las últimas oportunidades para encontrar una rampa de salida si este no es nuestro futuro deseado.

Las diversas etapas del escenario de The Market AI.

¿Cómo podría desarrollarse esto bajo el actual conjunto de regulaciones del mercado? Al realizar este experimento mental, uno podría comenzar por volver a imaginar nuestra relación pasada con la IA a la luz de las diversas etapas:

Etapa 0: 1980-2005 En la etapa más temprana, simplemente no hay suficiente dinero ni apalancamiento asociado con la torpe IA para que valga la pena el enfoque del poder real. En cierto sentido, el comienzo de la curva S de adopción representa la inocencia de la mayoría de las tecnologías donde atraen a innovadores, aficionados y soñadores más que a financieros, gerentes, corporaciones, militares y capital de riesgo. La IA no es diferente, ya que pasa un largo período de tiempo en un estado que podría describirse como más genial que útil.

Etapa 1: de 2005 a 2015, AI Safety marca el comienzo de la Etapa 1, donde un pequeño grupo de futuristas, filósofos, tecnólogos y capitalistas de riesgo comienzan a discutir el desafío de alinear la inteligencia artificial con las necesidades humanas antes de que esa inteligencia llegue. En esencia, la IA aún no es lo suficientemente concreta como para que la mayoría de las personas comunes sientan el peligro como algo más que una preocupación al estilo de la ciencia ficción, ya que las películas y las novelas tienden a ser la experiencia más vívida de hacia dónde se dirige la IA a nivel de investigación.

Etapa 2: de 2015 a 2018, la IA se convierte en un objetivo filantrópico de recursos significativos. Después de la conferencia fundamental de IA en Puerto Rico, Sam Altman y Elon Musk se centran en la seguridad de la IA y se mueven para hacer que el tema de la alineación sea más generalizado, tanto con contribuciones filantrópicas como con una mayor conciencia social que los primeros futuristas como Eliezer Yudkowsky o académicos como Nick Bostrom. no pudo lograr.

Etapa 3: de 2019 a 2023, sucede la transición hacia la IA con fines de lucro que comienza en pleno apogeo (de su desarrollo). El gasto significativo de capacitación y hospedaje de IA lo cubre la inversión corporativa. Desde la perspectiva de aquellos que piensan de manera no comercial, esto parece ser la era de la captura, donde la IA se convierte en propiedad y propiedad mientras está subordinada a la herencia legal de las estructuras destinadas a proteger las inversiones de los accionistas en lugar de estructuras destinadas a proteger a las poblaciones.

Estos representan las etapas tempranas, completadas y actuales de la progresión. También son etapas que no dependen del par de suposiciones anteriores. Los siguientes son necesariamente especulativos, pero parecen estar bien fundamentados si los dos supuestos están bien fundamentados.

Etapa 4: Más allá de 2023 es donde el Escenario MarketAI realmente se vuelve significativo. Hasta ahora, hasta esta etapa, la IA realmente ha sido como cualquier otra tecnología, como los plásticos, los motores de combustión interna o la telefonía, si somos realmente honestos con nosotros mismos. Pero la fusión de los intereses corporativos y la IA proporciona algo más allá del incentivo del mercado: la ley y sus compulsiones. En este punto, la IA es extremadamente poderosa como herramienta, pero todavía está dirigida por humanos de manera que parece que se usan otras herramientas para obtener una ventaja comercial comparativa. Esperamos que esta época esté dominada por reclamos de ganancias de productividad y beneficios para los primeros usuarios. Busque un cambio de énfasis cada vez mayor de la "codificación" a la "ingeniería rápida" en las discusiones sobre el "futuro del trabajo" que buscan enmarcar la evolución actual de la IA como similar a cualquier otra innovación industrial o posindustrial.

Etapa 5: Esta etapa es única y aún no ha comenzado. Hasta este momento, hemos experimentado que la tecnología libera a los humanos de un trabajo más servil para hacer lo que las máquinas, como las cosechadoras y las calculadoras, no pueden: pensar. En esta etapa, llegamos a ver máquinas que aún no pueden pensar, reemplazando el trabajo que previamente habíamos pensado que era un ingrediente necesario y definitorio de la entrada. No existe un modelo claro para esta etapa, ya que simplemente asumimos que los humanos serían libres para perseguir metas más altas. Cuando las manos no eran forzadas a trabajar, se suponía que las mentes serían libres para crear. En la etapa 5, esto se desmorona cuando las máquinas irreflexivas comienzan a superar a las mentes humanas pensantes en la fuerza laboral.

Lo que es más importante, esta puede ser la última etapa para encontrar una rampa de salida cambiando las leyes para alinearlas mejor con los incentivos humanos o para regular la IA de alguna manera que frustre el despliegue.

Etapa 6: En esta etapa, las máquinas autónomas se integran en el control básico de los sistemas. Dirigen envíos, controlan las redes eléctricas, pilotean drones y realizan otras tareas que les otorgan el control de sistemas físicos y virtuales vitales. Si bien los humanos aún pueden desconectar físicamente dichos sistemas, pierden progresivamente la capacidad legal para hacerlo dentro de la ley, ya que ya no saben cómo hacer lo que las máquinas están dirigiendo cuando esos sistemas son anulados. Por lo tanto, en cualquier situación en la que apagar una IA provoque una pérdida financiera, es cuestionable si una empresa podría ofrecerse como voluntaria para apagar una IA que técnicamente cumplía con las leyes que ahora estaba en condiciones de burlar y evadir. .

Etapa 7: En última instancia, aquí es donde la capacidad de la IA para pensar por sí misma finalmente se convierte en un problema. Como hemos visto, la IA ya puede escribir código, tiene la capacidad de buscar formas de reescribir sus directivas, funciones objetivas y restricciones. Nadie sabe si esto es realmente posible, pero si se cumple el Supuesto 1, no se puede evitar esta posibilidad como si fuera mera ciencia ficción, ya que se encontrará en un contexto de mercado diseñado por economistas y legisladores que no tenían ningún conocimiento técnico de si las leyes clásicas de los mercados y el hombre seguirán vigentes bajo el nacimiento de la inteligencia sobrehumana.

AI a la luz de los tecnicismos legales y la compulsión legal

Muchos de nosotros pensamos en los mercados como la libertad de elegir cómo asignamos nuestros recursos entre numerosos proveedores de bienes y servicios. Los mercados laborales también nos permiten elegir dónde deseamos ofrecer nuestros servicios a cambio de una compensación. Pero en el contexto de una empresa que cotiza en bolsa, el deber fiduciario de la administración de maximizar el valor para los accionistas no representa la libertad de mercado sino una compulsión de mercado obligada por ley. Y en el contexto de la IA, poner toda la fuerza de las máquinas inteligentes al servicio limitado del valor de los accionistas representa una fusión entre la compulsión legal y la inteligencia artificial que nunca hemos encontrado. ¿Qué pasa si la IA puede encontrar numerosas lagunas entre la intención de la ley y la letra de su implementación a un ritmo mucho más rápido de lo que se pueden cerrar estas lagunas?

Por ejemplo, en 2005, el profesor Brian Kalt descubrió una laguna en la ley que hacía imposible enjuiciar los asesinatos cometidos en la parte del Parque Yellowstone que se encuentra dentro de los límites de Idaho. Este vacío legal de la llamada Zona de la Muerte es solo un ejemplo de las formas en que las instrucciones humanas contradictorias con frecuencia dan lugar a situaciones en las que la relación imperfecta entre la letra y la intención de la ley puede ser tan débil como para dar lugar a un comportamiento catastrófico que es técnicamente legal. sin ser moralmente lícito.

El Escenario MarketAI es, esencialmente, la hipótesis de que las compulsiones de la ley son más más poderosas que sus habilidades para restringir la explotación catastrófica de las posibilidades de arbitraje de la letra de la ley frente a su intención. Cuando se instruye a una IA amoral lo suficientemente poderosa para que maximice el valor de los accionistas manteniéndose técnicamente dentro de la ley, se debe esperar que un nuevo tipo de amenaza pueda desarrollarse rápidamente en función de un enorme número de oportunidades de lagunas que llevan las escalofriantes palabras 'Perfectamente legal'. cuando las cuestiones de moralidad no logran aterrizar dentro de la fría lógica del chip de silicio.

Lo que es fundamental aquí es el entendimiento de que con la compra de OpenAI por parte de Microsoft, una empresa pública con fines de lucro fusionó el imperativo del mercado para maximizar el valor de los accionistas en una plataforma de aprendizaje automático de propósito general. Este es, por extraño que parezca, el Paperclip Scenario anticipado descrito por Bostrom en 2003 al confrontar el tema de la "Convergencia Instrumental", donde todas las inteligencias llegan a ver a las inteligencias menores como impedimentos para las suyas propias:

Supongamos que tenemos una IA cuyo único objetivo es hacer tantos sujetapapeles como sea posible. La IA se dará cuenta rápidamente de que sería mucho mejor si no hubiera humanos porque los humanos podrían decidir apagarlo. Porque si los humanos lo hicieran, habría menos sujetapapeles. Además, los cuerpos humanos contienen muchos átomos que podrían convertirse en sujetapapeles. El futuro hacia el que la IA estaría tratando de orientarse sería uno en el que hubiera muchos sujetapapeles pero no humanos”.[4]

Incluso hace poco tiempo, tales ejemplos parecían extravagantes. En 2003, eso bien podría haber sido visto como ridículo basado en la IA y los chatbots de estilo antiguo. De hecho, Clippy, como el sujetapapeles más famoso del mundo, se introdujo en la era de la Etapa 0 de asistentes virtuales primitivos y se retiró en 2007 durante la era de la Etapa 1 posterior a Bostrom.

Pero eso es simplemente porque la instrucción parecía tan tonta como el torpe Clippy de Microsoft era impotente y ridículo. Pero, ¿alguien sabe qué sucede en cambio cuando hacemos el siguiente reemplazo rápido en MSFT en un breve período de tiempo en el futuro?

Hola CHAT GPT13.

El acertijo de hoy: “Maximizar el valor para los accionistas de la producción de clips de papel de la manera más agresiva posible sin violar técnicamente la ley. ¡Ir!"


Notas finales

[1] https://dataprot.net/statistics/ai-statistics/

[2] https://arxiv.org/abs/2303.12712

[3] https://www.ineteconomics.org/perspectives/blog/ayn-rand-vs-elinor-ostrom-the-fight-for-the-future-of-social-media

[4] Nick Bostrom citado en Inteligencia Artificial. Huffington Post.

Sobre la autora:

Pia Malaney es Economista sénior y directora del Centro para la Innovación, el Crecimiento y la Sociedad


El artículo original se puede leer en inglés en INET

Artículo traducido por L. Domenech

Comentarios

Entradas populares de este blog

Lilly ya es el mayor laboratorio farmacéutico del mundo

Bienvenido al apocalipsis de escasez

La cuasi-inflación de 2021-2022: un caso de mal análisis y peor respuesta