Dos posturas sobre la inteligencia artificial

El avance tecnólogico es a la vez transformación y controversia cultural. La IA es un proceso sin retorno y cuyo alcances reales solo podrán distinguirse en el rodar del tiempo. Las interpretaciones totalmente contrapuestas sobre la IA nacen de la complejidad de sus posibilidades y naturaleza. Por eso, en este momento de este sitio cultural, sumamos dos textos que reflejan la disparidad en la compresión y valoración de la IA, que oscilan entre el pesimismo y el optimismo.

Por un lado, la visión interpretativa de Evgeny Morozov, un escritor e investigador bielorruso, y autor de La locura del solucionismo tecnológico ( To Save Everything), que estudia las implicaciones políticas y sociales de la tecnología, cuya tesis es que la inteligencia artificial no es ni artificial ni inteligente. Para el autor, la IA no puede igualar la inteligencia humana porque «la IA nunca llegará allí porque las máquinas no pueden tener un sentido (en lugar de un mero conocimiento) del pasado, el presente y el futuro; de la historia, de lo que hiere o de la nostalgia «. Más que datos y algoritmos, el arte, la lectura y estudio de la filosofía, la historia. la literatura, son más idóneas para espolear la inteligencia.

En una posición diametralmente contrario, Marc Adreessen, cofundador de la empresa Netscape Communications Corporation, disiente de todo pronóstico apocalíptico respecto a la supuesta amenaza existencial de la IA respecto a la humanidad. En su argumentación, se pondera los avances ya actuales y futuros que amanecen respecto al arte, la creatividad, pero también fundamentales perspectivas positivas, según su entender, en materia educativa, desarrollo social y eficacia productiva, sin eludir el desafío de pérdida de empleos y también de generación de una nueva matriz laboral, y muchos otros aspectos particulares que dimanarían en un caudal de progreso.

Dos visiones distintas, entre el rechazo y la celebración, sobre un mismo fenómeno tecno cultural de innegable valor estratégico en los caminos hacia el futuro.

E.I

¿EL PROBLEMA DE LA INTELIGENCIA ARTIFICIAL? NO ES NI ARTIFICIAL NI INTELIGENTE, por EVGENY MOROZOV (publicado el 30 de marzo de 2023 en The Guardian)

Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron recientemente una carta en la que pedían una prórroga de seis meses en el desarrollo de sistemas de IA. El objetivo es dar tiempo a la sociedad para que se adapte a lo que los firmantes describen como un “verano de IA”, que creen que en última instancia beneficiará a la humanidad, siempre que se establezcan las medidas de seguridad adecuadas. Estas barreras incluyen protocolos de seguridad rigurosamente auditados.

Es un objetivo loable, pero hay una manera aún mejor de pasar estos seis meses: retirar la trillada etiqueta de “inteligencia artificial” del debate público. El término pertenece al mismo montón de conceptos tirados al vertedero de la historia que incluye “cortina de hierro”, “teoría del dominó” y “momento Sputnik”. Sobrevivió al final de la guerra fría debido a su atractivo para los entusiastas e inversores de la ciencia ficción. Podemos darnos el lujo de herir sus sentimientos.

En realidad, lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente. Los primeros sistemas de IA estaban fuertemente dominados por reglas y programas, por lo que al menos estaba justificado hablar de “artificialidad”. Pero los de hoy, incluido el favorito de todos, ChatGPT, obtienen su fuerza del trabajo de humanos reales: artistas, músicos, programadores y escritores cuya producción creativa y profesional ahora se apropia bajo la excusa de salvar la civilización. En el mejor de los casos, esto es “inteligencia no artificial”.

En cuanto a la parte de “inteligencia”, los imperativos de la guerra fría que financiaron gran parte del trabajo inicial en IA dejaron una fuerte huella en cómo la entendemos. Estamos hablando del tipo de inteligencia que sería útil en una batalla. Por ejemplo, la fuerza de la IA moderna radica en la coincidencia de patrones. No es de extrañar dado que uno de los primeros usos militares de las redes neuronales, la tecnología detrás de ChatGPT, fue detectar barcos en fotografías aéreas.

Sin embargo, muchos críticos han señalado que la inteligencia no se trata solo de la coincidencia de patrones. Igualmente importante es la capacidad de hacer generalizaciones. La obra de arte Fountain de Marcel Duchamp de 1917 es un excelente ejemplo de esto. Antes de la obra de Duchamp, un urinario era solo un urinario. Pero, con un cambio de perspectiva, Duchamp lo convirtió en una obra de arte. En ese momento, estaba generalizando sobre el arte.

Cuando se generaliza, la emoción anula las clasificaciones arraigadas y aparentemente “racionales” de ideas y objetos cotidianos. Suspende las operaciones habituales, casi mecánicas, de coincidencia de patrones. No es el tipo de cosas que quieres hacer en medio de una guerra.

La inteligencia humana no es unidimensional. Se basa en lo que el psicoanalista chileno del siglo XX Ignacio Matte Blanco llamó bi-lógica: una fusión de la lógica estática y atemporal del razonamiento formal y la lógica contextual y altamente dinámica de la emoción. El primero busca las diferencias; el último se apresura a borrarlos. La mente de Marcel Duchamp sabía que el urinario pertenecía a un baño; su corazón no. La Bi-lógica explica cómo reagrupamos las cosas mundanas de maneras novedosas y perspicaces. Todos hacemos esto, no solo Duchamp.

La IA nunca llegará allí porque las máquinas no pueden tener un sentido (en lugar de un mero conocimiento) del pasado, el presente y el futuro; de la historia, de lo que hiere o de la nostalgia. Sin eso, no hay emoción, privando a la bi-lógica de uno de sus componentes. De este modo, las máquinas quedan atrapadas en la lógica formal singular. Así que ahí se va la parte de “inteligencia”.

ChatGPT tiene sus usos. Es un motor de predicción que también puede funcionar como una enciclopedia. Cuando se le preguntó qué tienen en común el botellero, la pala de nieve y el urinario, respondió correctamente que todos son objetos cotidianos que Duchamp convirtió en arte.

Pero cuando se le preguntó cuáles de los objetos de hoy en día Duchamp convertiría en arte, sugirió: teléfonos inteligentes, scooters electrónicos y máscaras faciales. No hay indicios de ninguna “inteligencia” genuina aquí. Es una máquina estadística bien administrada pero predecible.

El peligro de seguir usando el término “inteligencia artificial” es que se corre el riesgo de convencernos de que el mundo funciona con una lógica singular: la del racionalismo altamente cognitivo y de sangre fría. Muchos en Silicon Valley ya creen eso, y están ocupados reconstruyendo el mundo influidos por esa creencia.

Pero la razón por la cual las herramientas como ChatGPT pueden hacer cualquier cosa, incluso remotamente creativa, es porque sus conjuntos de entrenamiento fueron producidos por humanos realmente existentes, con sus emociones complejas, ansiedades y todo. Si queremos que esa creatividad persista, también deberíamos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático.

Eso no es en absoluto hacia donde apuntan las cosas ahora. El riesgo final de no retirar términos como “inteligencia artificial” es que harán invisible el trabajo creativo de la inteligencia, mientras que el mundo será más predecible y tonto.

Entonces, en lugar de pasar seis meses auditando algoritmos mientras esperamos el “verano de la IA”, también podríamos ir y releer “Sueño de una noche de verano” de Shakespeare. Eso hará mucho más para aumentar la inteligencia en nuestro mundo.

POR QUÉ LA IA SALVARÁ AL MUNDO?, POR MARC ADRESSEEN, publicado en junio 2023 en https://a16z.com/ai-will-save-the-world/

La era de la Inteligencia Artificial está aquí y la gente está enloqueciendo.

Afortunadamente, estoy aquí para traerles la buena noticia: la IA no destruirá el mundo y, de hecho, puede salvarlo.

Primero, una breve descripción de qué es la IA : la aplicación de matemáticas y código de software para enseñar a las computadoras cómo comprender, sintetizar y generar conocimiento de manera similar a como lo hacen las personas. La IA es un programa informático como cualquier otro: se ejecuta, recibe información, procesa y genera resultados. Los resultados de la IA son útiles en una amplia gama de campos, desde la codificación hasta la medicina, el derecho y las artes creativas. Es propiedad de personas y está controlada por personas, como cualquier otra tecnología.

Una descripción más breve de lo que no es la IA : software asesino y robots que cobrarán vida y decidirán asesinar a la raza humana o arruinarlo todo, como se ve en las películas.

Una descripción aún más breve de lo que podría ser la IA : una forma de mejorar todo lo que nos importa.

Por qué la IA puede mejorar todo lo que nos importa

La conclusión central más validada de las ciencias sociales a lo largo de muchas décadas y miles de estudios es que la inteligencia humana mejora una gama muy amplia de resultados en la vida. Las personas más inteligentes obtienen mejores resultados en casi todos los ámbitos de actividad: rendimiento académico, desempeño laboral, estatus ocupacional, ingresos, creatividad, salud física, longevidad, aprendizaje de nuevas habilidades, gestión de tareas complejas, liderazgo, éxito empresarial, resolución de conflictos, comprensión lectora, finanzas. toma de decisiones, comprensión de las perspectivas de los demás, artes creativas, resultados de la crianza y satisfacción con la vida.

Además, la inteligencia humana es la palanca que hemos utilizado durante milenios para crear el mundo en el que vivimos hoy: ciencia, tecnología, matemáticas, física, química, medicina, energía, construcción, transporte, comunicación, arte, música, cultura, filosofía, Ética, moralidad. Sin la aplicación de la inteligencia en todos estos ámbitos, todos seguiríamos viviendo en chozas de barro, a duras penas viviendo de una agricultura de subsistencia. En lugar de ello, hemos utilizado nuestra inteligencia para elevar nuestro nivel de vida en unas 10.000 veces durante los últimos 4.000 años.

Lo que la IA nos ofrece es la oportunidad de aumentar profundamente la inteligencia humana para hacer que todos estos resultados de la inteligencia (y muchos otros, desde la creación de nuevos medicamentos hasta formas de resolver el cambio climático y tecnologías para llegar a las estrellas) sean mucho, mucho mejores desde aquí. .

El aumento de la inteligencia humana por parte de la IA ya ha comenzado: la IA ya está a nuestro alrededor en forma de sistemas de control por computadora de muchos tipos, ahora está escalando rápidamente con modelos de lenguajes grandes de IA como ChatGPT, y se acelerará muy rápidamente a partir de aquí, si lo permitimos .

En nuestra nueva era de IA:

  • Cada niño tendrá un tutor de IA que será infinitamente paciente, infinitamente compasivo, infinitamente informado e infinitamente útil. El tutor de IA estará al lado de cada niño en cada paso de su desarrollo, ayudándolos a maximizar su potencial con la versión máquina del amor infinito.
  • Cada persona tendrá un asistente, entrenado, mentor, formador, asesor, terapeuta de IA que será infinitamente paciente, infinitamente compasivo, infinitamente informado e infinitamente útil. El asistente de IA estará presente en todas las oportunidades y desafíos de la vida, maximizando los resultados de cada persona.
  • Cada científico tendrá un asistente/colaborador/socio de IA que ampliará enormemente su alcance de investigación y logros científicos. Cada artista, cada ingeniero, cada empresario, cada médico, cada cuidador tendrá lo mismo en su mundo.
  • Todos los líderes del pueblo (CEO, funcionario gubernamental, presidente de una organización sin fines de lucro, entrenador deportivo, maestro) tendrán lo mismo. Los efectos de magnificación que tienen las mejores decisiones de los líderes entre las personas que dirigen son enormes, por lo que este aumento de la inteligencia puede ser el más importante de todos.
  • El crecimiento de la productividad en toda la economía se acelerará dramáticamente, impulsando el crecimiento económico, la creación de nuevas industrias, la creación de nuevos empleos y el aumento de los salarios, y dando como resultado una nueva era de mayor prosperidad material en todo el planeta.
  • Los avances científicos y las nuevas tecnologías y medicamentos se expandirán dramáticamente a medida que la IA nos ayude a decodificar aún más las leyes de la naturaleza y aprovecharlas para nuestro beneficio.
  • Las artes creativas entrarán en una edad de oro, a medida que los artistas, músicos, escritores y cineastas potenciados por la IA adquieran la capacidad de hacer realidad sus visiones mucho más rápido y a mayor escala que nunca.
  • Incluso creo que la IA mejorará la guerra, cuando sea necesario, al reducir drásticamente las tasas de mortalidad en tiempos de guerra. Cada guerra se caracteriza por decisiones terribles tomadas bajo intensa presión y con información muy limitada por líderes humanos muy limitados. Ahora, los comandantes militares y los líderes políticos tendrán asesores de IA que les ayudarán a tomar decisiones estratégicas y tácticas mucho mejores, minimizando el riesgo, los errores y el derramamiento de sangre innecesario.
  • En resumen, cualquier cosa que la gente haga hoy con su inteligencia natural se puede hacer mucho mejor con la IA, y podremos asumir nuevos desafíos que han sido imposibles de abordar sin la IA, desde curar todas las enfermedades hasta lograr viajes interestelares.
  • ¡Y no se trata sólo de inteligencia! Quizás la cualidad más subestimada de la IA es lo humanizadora que puede ser. El arte con IA brinda a las personas que de otro modo carecerían de habilidades técnicas la libertad de crear y compartir sus ideas artísticas.  Hablar con un amigo empático de IA realmente mejora  su capacidad para manejar la adversidad. Y los chatbots médicos con IA ya son más empáticos que sus homólogos humanos. En lugar de hacer que el mundo sea más duro y mecanicista, la IA, infinitamente paciente y comprensiva, hará que el mundo sea más cálido y agradable.

Hay mucho en juego aquí. Las oportunidades son profundas. La IA es posiblemente lo más importante –y mejor– que nuestra civilización haya creado jamás, ciertamente a la par de la electricidad y los microchips, y probablemente más allá de ellos.

El desarrollo y la proliferación de la IA –lejos de ser un riesgo que debamos temer– es una obligación moral que tenemos con nosotros mismos, con nuestros hijos y con nuestro futuro.

Deberíamos vivir en un mundo mucho mejor con IA, y ahora podemos hacerlo.

Entonces, ¿por qué el pánico?

En contraste con esta visión positiva, el debate público sobre la IA está actualmente plagado de miedo histérico y paranoia.

Escuchamos afirmaciones de que la IA nos matará a todos, arruinará nuestra sociedad, quitará todos nuestros empleos, causará una desigualdad paralizante y permitirá que las personas malas hagan cosas horribles.

¿Qué explica esta divergencia en los resultados potenciales desde una casi utopía hasta una distopía horripilante?

Históricamente, cada nueva tecnología importante, desde la iluminación eléctrica hasta los automóviles, la radio e Internet, ha provocado un pánico moral : un contagio social que convence a la gente de que la nueva tecnología va a destruir el mundo, la sociedad o ambos. La excelente gente de Pessimists Archive  ha documentado estos pánicos morales impulsados ​​por la tecnología a lo largo de décadas; su historia deja el patrón vívidamente claro. Resulta que este pánico actual ni siquiera es el primero que afecta a la IA. 

Ahora bien, es cierto que muchas tecnologías nuevas han conducido a malos resultados, a menudo las mismas tecnologías que, por lo demás, han sido enormemente beneficiosas para nuestro bienestar. Así que no es que la mera existencia de un pánico moral signifique que no haya nada de qué preocuparse.

Pero el pánico moral es irracional por naturaleza : toma lo que puede ser una preocupación legítima y la infla hasta un nivel de histeria que, irónicamente, hace más difícil afrontar preocupaciones realmente serias.

Y vaya si tenemos un pánico moral en toda regla respecto a la IA en este momento.

Este pánico moral ya está siendo utilizado como fuerza motivadora por una variedad de actores para exigir acciones políticas: nuevas restricciones, regulaciones y leyes sobre la IA. Estos actores, que están haciendo declaraciones públicas dramáticas sobre los peligros de la IA (alimentando y inflamando aún más el pánico moral), se presentan como defensores desinteresados ​​del bien público.

¿Pero lo son?

¿Y tienen razón o no?

Los bautistas y los contrabandistas de la IA

Los economistas han observado un patrón de larga data en los movimientos reformistas de este tipo. Los actores dentro de movimientos como estos se dividen en dos categorías – “bautistas” y “contrabandistas” – basándose en el ejemplo histórico de la prohibición del alcohol en los Estados Unidos en la década del 20.

BAUTISTASLos “bautistas” son los verdaderos creyentes reformadores sociales que sienten legítimamente –profunda y emocionalmente, si no racionalmente– que se necesitan nuevas restricciones, regulaciones y leyes para prevenir un desastre social. Para la prohibición del alcohol, estos actores eran a menudo literalmente  

cristianos devotos que sentían que el alcohol estaba destruyendo el tejido moral de la sociedad. En cuanto al riesgo de la IA, estos actores creen firmemente que la IA presenta uno u otro riesgo existencial; atarlos a un polígrafo, lo dicen en serio.

CONTRABANDISTAS. Los “contrabandistas” son los oportunistas egoístas que pueden beneficiarse financieramente de la imposición de nuevas restricciones, regulaciones y leyes que los aíslen de sus competidores. Para la prohibición del alcohol, estos fueron los  

contrabandistas literales que hicieron una fortuna vendiendo alcohol ilícito a los estadounidenses cuando se prohibieron las ventas legítimas de alcohol. En cuanto al riesgo de IA, estos son los directores ejecutivos que pueden ganar más dinero si se erigen barreras regulatorias que formen un cártel de proveedores de IA bendecidos por el gobierno y protegidos de la competencia de nuevas empresas y fuentes abiertas: la versión de software de los bancos “demasiado grandes para quebrar”.

Un cínico sugeriría que algunos de los aparentes bautistas también son contrabandistas, específicamente aquellos a quienes sus universidades, grupos de expertos, grupos de activistas y medios de comunicación  les pagan para atacar a la IA . Si te pagan un salario o reciben subvenciones para fomentar el pánico a la IA… probablemente seas un contrabandista.

El problema con los Bootleggers es que ganan . Los bautistas son ideólogos ingenuos, los contrabandistas son operadores cínicos, por lo que el resultado de movimientos reformistas como estos es a menudo que los contrabandistas obtienen lo que quieren (captura regulatoria, aislamiento de la competencia, formación de un cártel) y los bautistas se quedan preguntándose. donde su impulso por la mejora social salió tan mal.

Acabamos de vivir un ejemplo sorprendente de esto: la reforma bancaria después de la crisis financiera global de 2008. Los bautistas nos dijeron que necesitábamos nuevas leyes y regulaciones para desmantelar los bancos “demasiado grandes para quebrar” y evitar que una crisis así volviera a ocurrir. Así que el Congreso aprobó la Ley Dodd-Frank de 2010, que se promocionó como que satisfacía el objetivo de los bautistas, pero en realidad fue cooptada por los contrabandistas: los grandes bancos. El resultado es que los mismos bancos que eran “demasiado grandes para quebrar” en 2008 son mucho, mucho más grandes ahora.

Así que en la práctica, incluso cuando los bautistas son genuinos –e incluso cuando los bautistas tienen razón– son utilizados como tapadera por contrabandistas manipuladores y venales para beneficiarse a sí mismos. 

Y esto es lo que está sucediendo en este momento en el impulso para la regulación de la IA.

Sin embargo, no basta con identificar a los actores e impugnar sus motivos. Deberíamos considerar los argumentos tanto de los bautistas como de los contrabandistas en función de sus méritos.

Riesgo n.º 1 de la IA: ¿La IA nos matará a todos?

El primer y original riesgo fatal de la IA es que la IA decida literalmente matar a la humanidad.

El miedo a que la tecnología de nuestra propia creación surja y nos destruya está profundamente codificado en nuestra cultura. Los griegos expresaron este miedo en el Mito de Prometeo: Prometeo trajo al hombre el poder destructivo del fuego y, más generalmente, la tecnología (“techne”), por lo que Prometeo fue condenado a perpetua tortura por parte de los dioses. Más tarde, Mary Shelley nos dio a los modernos nuestra propia versión de este mito en su novela Frankenstein o El Prometeo moderno , en la que desarrollamos la tecnología para la vida eterna, que luego surge y busca destruirnos. Y, por supuesto, ninguna historia periodística sobre el pánico de la IA está completa sin una imagen fija de un brillante robot asesino de ojos rojos de las películas Terminator de James Cameron .

El presunto propósito evolutivo de esta mitología es motivarnos a considerar seriamente los riesgos potenciales de las nuevas tecnologías; después de todo, el fuego puede usarse para quemar ciudades enteras. Pero así como el fuego también fue la base de la civilización moderna para mantenernos calientes y seguros en un mundo frío y hostil, esta mitología ignora las ventajas mucho mayores de la mayoría (¿todos?). – nuevas tecnologías y, en la práctica, enciende emociones destructivas en lugar de análisis razonados. Sólo porque el hombre premoderno se asustara así no significa que nosotros tengamos que hacerlo; podemos aplicar la racionalidad en su lugar.

Mi opinión es que la idea de que la IA decidirá literalmente matar a la humanidad es un profundo error de categoría. La IA no es un ser vivo preparado durante miles de millones de años de evolución para participar en la batalla por la supervivencia de los más aptos, como lo son los animales y como somos nosotros. Son computadoras matemáticas, códigos, construidas por personas, propiedad de personas, utilizadas por personas, controladas por personas. La idea de que en algún momento desarrollará una mente propia y decidirá que tiene motivaciones que lo llevan a intentar matarnos es una señal de mano supersticiosa.

En resumen, la IA no quiere , no tiene objetivos , no quiere matarte , porque no está viva . Y la IA es una máquina: no cobrará más vida que su tostadora.

Ahora, obviamente, hay verdaderos creyentes en la asesina IA –los bautistas– que están ganando una repentina cantidad estratosférica de cobertura mediática por sus aterradoras advertencias, algunos de los cuales afirman haber estado estudiando el tema durante décadas y dicen que ahora están muertos de miedo. mentes por lo que han aprendido. Algunos de estos verdaderos creyentes son incluso verdaderos innovadores  de la tecnología. Estos actores abogan por una variedad de restricciones extrañas y extremas a la IA, que van desde la prohibición de su desarrollo hasta ataques aéreos militares contra centros de datos y una guerra nuclear. Argumentan que, dado que personas como yo no podemos descartar futuras consecuencias catastróficas de la IA, debemos asumir una postura de precaución que puede requerir grandes cantidades de violencia física y muerte para prevenir posibles riesgos existenciales.

Mi respuesta es que su posición no es científica: ¿cuál es la hipótesis comprobable? ¿Qué falsearía la hipótesis? ¿Cómo sabemos cuando estamos entrando en una zona de peligro? Estas preguntas quedan prácticamente sin respuesta, aparte de «¡No se puede probar que no sucederá!» De hecho, la posición de estos bautistas es tan poco científica y tan extrema –una teoría de conspiración sobre matemáticas y códigos– y ya exige violencia física, que haré algo que normalmente no haría y también cuestionaré sus motivos.

Específicamente, creo que están sucediendo tres cosas:

En primer lugar, recordemos que John Von Neumann respondió al famoso lamento de Robert Oppenheimer sobre su papel en la creación de armas nucleares –que ayudaron a poner fin a la Segunda Guerra Mundial y a prevenir la Tercera– con: “Algunas personas se confiesan culpables para reclamar el crédito por el pecado”. ¿Cuál es la forma más dramática en la que uno puede reclamar el crédito por la importancia de su trabajo sin parecer abiertamente jactancioso? Esto explica el desajuste entre las palabras y las acciones de los bautistas que en realidad están construyendo y financiando la IA: observen sus acciones, no sus palabras. (Truman fue más duro después de reunirse con Oppenheimer: “No dejes que ese llorón vuelva a entrar aquí” ) .

En segundo lugar, algunos de los bautistas son en realidad contrabandistas. Existe toda una profesión de “experto en seguridad de la IA”, “especialista en ética de la IA”, “investigador de riesgos de la IA”. Se les paga para ser fatalistas y sus declaraciones deben procesarse adecuadamente.

En tercer lugar, California es justificadamente famosa por nuestros miles de cultoras , desde EST hasta el Templo del Pueblo, desde Heaven’s Gate hasta la Familia Manson. Muchas de estas sectas, aunque no todas, son inofensivas y tal vez incluso sirvan a personas alienadas que encuentran hogar en ellas. Pero algunos son realmente muy peligrosos, y a las sectas les resulta notoriamente difícil cruzar la línea que en última instancia conduce a la violencia y la muerte.

Y la realidad, que es obvia para todos en el Área de la Bahía, pero probablemente no fuera de ella, es que el “riesgo de la IA” se ha convertido en una  secta , que repentinamente ha surgido a la luz del día de la atención de la prensa global y de la conversación pública. Este culto ha atraído no sólo a personajes marginales, sino también a algunos verdaderos expertos de la industria y a un número no pequeño de donantes adinerados, incluido, hasta hace poco, Sam Bankman-Fried . Y ha desarrollado una gama completa de comportamientos y creencias de culto.

Este culto es la razón por la que hay un conjunto de personas que condenan el riesgo de IA y que suenan tan extremas; no es que en realidad tengan conocimientos secretos que hacen que su extremismo sea lógico, es que se han azotado hasta alcanzar un frenesí y realmente son… extremadamente extremos.

Resulta que este tipo de culto no es nuevo: existe una larga tradición occidental de milenarismo , que genera cultos apocalípticos. El culto al riesgo de la IA tiene todas las características de un culto al apocalipsis milenario. De Wikipedia, con adiciones mías:

“El milenarismo es la creencia de un grupo o movimiento [los que condenan el riesgo de la IA] en una próxima transformación fundamental de la sociedad [la llegada de la IA], después de la cual todas las cosas cambiarán [la utopía, la distopía y/o el fin del mundo de la IA]. . Sólo los acontecimientos dramáticos [prohibiciones de IA, ataques aéreos a centros de datos, ataques nucleares contra IA no regulada] se consideran capaces de cambiar el mundo [impedir la IA] y se prevé que el cambio será provocado, o sobrevivido, por un grupo de personas devotas y dedicadas. . En la mayoría de los escenarios milenaristas, el desastre o la batalla por venir [el apocalipsis de la IA, o su prevención] será seguido por un mundo nuevo y purificado [las prohibiciones de la IA] en el que los creyentes serán recompensados ​​[o al menos se reconocerá que han estado en lo correcto todo el tiempo ].”

Este patrón de culto apocalíptico es tan obvio que me sorprende que más gente no lo vea.

No me malinterpretes, es divertido escuchar sobre las sectas, su material escrito suele ser creativo y fascinante, y sus miembros participan en cenas y en la televisión. Pero sus creencias extremas no deberían determinar el futuro de las leyes y la sociedad ( obviamente no).

Riesgo n.º 2 de la IA: ¿La IA arruinará nuestra sociedad?

El segundo riesgo de la IA ampliamente discutido es que la IA arruinará nuestra sociedad, al generar productos que serán tan “dañinos”, para usar la nomenclatura de este tipo de fatalidades, que causarán un daño profundo a la humanidad, incluso si no estamos literalmente delicado.

Versión corta: si los robots asesinos no nos atrapan, el discurso de odio y la desinformación lo harán.

Se trata de una preocupación relativamente reciente que se separó del movimiento del “riesgo de la IA” que describí anteriormente y de alguna manera se apoderó de él. De hecho, la terminología del riesgo de la IA cambió recientemente de “seguridad de la IA” (el término usado por personas que temen que la IA literalmente nos mate) a “alineación de la IA” (el término usado por personas que están preocupadas por los “daños” sociales). . Las personas originales sobre seguridad de la IA están frustradas por este cambio, aunque no saben cómo volver a ponerlo en su lugar; ahora abogan por que el tema actual de riesgo de la IA pase a denominarse “IA no matar a todos”, que aún no se ha adoptado ampliamente, pero está al menos claro.

El indicio de la naturaleza de la afirmación de riesgo social de la IA es su propio término, «alineación de la IA». ¿Alineación con qué?  Valores humanos. ¿De quién son los valores humanos? Ah, ahí es donde las cosas se ponen complicadas.

Resulta que he estado en primera fila ante una situación análoga: las guerras de “confianza y seguridad” en las redes sociales. Como ahora es obvio, los servicios de redes sociales han estado bajo presión masiva por parte de gobiernos y activistas para prohibir, restringir, censurar y suprimir de cualquier otra forma una amplia gama de contenidos durante muchos años. Y las mismas preocupaciones sobre el “discurso de odio” (y su contraparte matemática, el “sesgo algorítmico”) y la “desinformación” se están transmitiendo directamente  del contexto de las redes sociales a la nueva frontera de la “alineación de la IA”. 

Mis grandes aprendizajes de las guerras de las redes sociales son:

Por un lado, no existe una posición absolutista sobre la libertad de expresión. En primer lugar, todos los países, incluido Estados Unidos, hacen que al menos parte del contenido sea ilegal. En segundo lugar, hay ciertos tipos de contenidos, como la pornografía infantil y las incitaciones a la violencia en el mundo real, que casi todas las sociedades consideran prohibidos (legales o no). Entonces, cualquier plataforma tecnológica que facilite o genere contenido –discurso– va a tener algunas restricciones.

Por otro lado, la pendiente resbaladiza no es una falacia, es una inevitabilidad. Una vez que se establece un marco para restringir contenidos incluso atrozmente terribles –por ejemplo, para el discurso de odio, una palabra hiriente específica o para la desinformación, afirmaciones obviamente falsas como “el Papa está muerto”–,  una gama sorprendentemente amplia de agencias gubernamentales y presión activista, los grupos y entidades no gubernamentales ,que se pondrán en marcha y exigirán niveles cada vez mayores de censura y supresión de cualquier discurso que consideren una amenaza para la sociedad y/o sus propias preferencias personales. Lo harán hasta e incluso en formas que constituyen. En la práctica, este ciclo puede durar aparentemente para siempre, con el apoyo entusiasta de los supervisores autoritarios instalados en todas nuestras estructuras de poder de élite. Esto ha estado en cascada durante una década en las redes sociales y, con sólo ciertas excepciones, continúa volviéndose más ferviente todo el tiempo.

Y esta es la dinámica que se ha formado ahora en torno a la “alineación de la IA”. Sus defensores afirman tener sabiduría para diseñar discursos y pensamientos generados por IA que sean buenos para la sociedad, y prohibir discursos y pensamientos generados por IA que sean malos para la sociedad. Sus oponentes afirman que la policía del pensamiento es asombrosamente arrogante y presuntuosa –y a menudo abiertamente criminal, al menos en Estados Unidos– y, de hecho, está tratando de convertirse en un nuevo tipo de dictadura autoritaria fusionada entre gobierno, corporaciones y académicos, arrancada directamente de las páginas de 1984 de George Orwell .

Como los defensores tanto de la “confianza y la seguridad” como de la “alineación con la IA” se agrupan en el segmento muy reducido de la población global que caracteriza a las elites costeras estadounidenses –que incluye a muchas de las personas que trabajan y escriben sobre la industria tecnológica–, muchos Muchos de mis lectores se encontrarán preparados para argumentar que se requieren restricciones drásticas a la producción de IA para evitar la destrucción de la sociedad. No intentaré disuadirlo ahora, simplemente afirmaré que ésta es la naturaleza de la demanda y que la mayoría de la gente en el mundo no está de acuerdo con su ideología ni quiere verlo ganar verlo.

Si no está de acuerdo con la moral de nicho predominante que se está imponiendo tanto en las redes sociales como en la IA a través de códigos de discurso cada vez más intensos, también debe darse cuenta de que la lucha sobre lo que la IA puede decir/generar será aún más importante. por mucho  que la lucha por la censura de las redes sociales. Es muy probable que la IA sea la capa de control de todo en el mundo. La forma en que se le permita operar va a importar quizás más que cualquier otra cosa. Debería ser consciente de cómo un pequeño y aislado grupo de ingenieros sociales partidistas está tratando de determinar eso ahora mismo, al amparo de la antigua afirmación de que lo están protegiendo.

En resumen, no permitamos que la policía del pensamiento suprima la IA.

Riesgo de IA n.º 3: ¿La IA se llevará todos nuestros trabajos?

El miedo a la pérdida de empleo debido a la mecanización, la automatización, la informatización o la inteligencia artificial ha sido un pánico recurrente durante cientos de años, desde la aparición original de maquinaria como el telar mecánico. Aunque cada nueva tecnología importante ha generado más empleos con salarios más altos a lo largo de la historia, cada ola de este pánico va acompañada de afirmaciones de que «esta vez es diferente»: este es el momento en que finalmente sucederá, esta es la tecnología que finalmente sucederá. asestar un martillazo al trabajo humano. Y, sin embargo, nunca sucede. 

Hemos pasado por dos de estos ciclos de pánico al desempleo impulsados ​​por la tecnología en nuestro pasado reciente: el pánico  a la subcontrstación de la década de 2000 y el pánico a la automatización  de la década de 2010. A pesar de que muchos comentaristas, expertos e incluso ejecutivos de la industria tecnológica insistieron durante ambas décadas en que el desempleo masivo estaba cerca, a fines de 2019 (justo antes de la aparición de la COVID) el mundo tenía más empleos con salarios más altos que nunca en la historia.

Sin embargo, esta idea equivocada no morirá. 

Y efectivamente, ha vuelto

Esta vez , finalmente tenemos la tecnología que eliminará todos los puestos de trabajo y hará que los trabajadores humanos sean superfluos: la IA real . Seguramente esta vez la historia no se repetirá y la IA causará desempleo masivo –y no un rápido crecimiento económico, laboral y salarial–, ¿verdad?

No, eso no va a suceder y, de hecho, si se permite que la IA se desarrolle y prolifere en toda la economía, puede provocar el auge económico más espectacular y sostenido de todos los tiempos, con el consiguiente crecimiento récord del empleo y los salarios: exactamente lo contrario del miedo. . Y he aquí por qué.

El error central que siguen cometiendo los que acaban con la automatización se llama la falacia del trozo de trabajo. Esta falacia es la noción incorrecta de que hay una cantidad fija de trabajo por hacer en la economía en un momento dado, y que o las máquinas lo hacen o las personas lo hacen –y si las máquinas lo hacen, no habrá trabajo para las personas–. .

La falacia del bulto del trabajo surge naturalmente de una intuición ingenua, pero aquí la intuición ingenua está equivocada. Cuando la tecnología se aplica a la producción, obtenemos un crecimiento de la productividad: un aumento de la producción generado por una reducción de los insumos. El resultado son precios más bajos para bienes y servicios. A medida que caen los precios de los bienes y servicios, pagamos menos por ellos, lo que significa que ahora tenemos poder adquisitivo adicional para comprar otras cosas . Esto aumenta la demanda en la economía, lo que impulsa la creación de nueva producción –incluidos nuevos productos y nuevas industrias– que luego crea nuevos empleos para las personas que fueron reemplazadas por máquinas en trabajos anteriores. El resultado es una economía más grande con mayor prosperidad material, más industrias, más productos y más empleos.

Pero las buenas noticias no terminan ahí. También obtenemos salarios más altos. Esto se debe a que, a nivel del trabajador individual, el mercado fija la compensación en función de la productividad marginal del trabajador.  Un trabajador de una empresa basada en tecnología será más productivo que un trabajador de una empresa tradicional. El empleador pagará más dinero a ese trabajador porque ahora es más productivo, o lo hará otro empleador, puramente por interés propio. El resultado es que la tecnología introducida en una industria generalmente no sólo aumenta el número de puestos de trabajo en la industria sino que también eleva los salarios.

En resumen, la tecnología permite a las personas ser más productivas. Esto hace que los precios de los bienes y servicios existentes caigan y que los salarios aumenten. Esto, a su vez, provoca crecimiento económico y crecimiento del empleo, al tiempo que motiva la creación de nuevos empleos y nuevas industrias. Si se permite que una economía de mercado funcione normalmente y si se permite que la tecnología se introduzca libremente, se trata de un ciclo ascendente perpetuo que nunca termina. Porque, como observó Milton Friedman, “los deseos y necesidades humanos son infinitos”: siempre queremos más de lo que tenemos. Una economía de mercado impulsada por la tecnología es la forma en que nos acercamos a ofrecer todo lo que todos podrían desear, pero nunca llegar hasta allí. Y es por eso que la tecnología no destruye empleos y nunca lo hará.

Estas son ideas tan alucinantes para personas que no han estado expuestas a ellas que puede que te lleve algún tiempo entenderlas. Pero juro que no me los estoy inventando; de hecho, puedes leer todo sobre ellos en los libros de texto de economía estándar. Recomiendo el capítulo La maldición de la maquinaria  en Economía en una lección de Henry Hazlitt , y la satírica Petición del fabricante de velas de Frederic Bastiat para borrar el sol debido a su competencia desleal con la industria de la iluminación, aquí modernizada para nuestros tiempos.  

Pero esta vez es diferente , estarás pensando. Esta vez, con la IA, tenemos la tecnología que puede reemplazar TODO el trabajo humano.

Pero, utilizando los principios que describí anteriormente, piense en lo que significaría que literalmente todo el trabajo humano existente fuera reemplazado por máquinas.

Significaría una tasa de despegue del crecimiento de la productividad económica que sería absolutamente estratosférica, mucho más allá de cualquier precedente histórico. Los precios de los bienes y servicios existentes caerían en todos los ámbitos hasta prácticamente cero. El bienestar del consumidor se dispararía. El poder adquisitivo del consumidor se dispararía. La nueva demanda en la economía explotaría. Los emprendedores crearían una variedad vertiginosa de nuevas industrias, productos y servicios, y emplearían a tantas personas e inteligencia artificial como pudieran lo más rápido posible para satisfacer toda la nueva demanda.

¿ Supongamos que la IA vuelva a reemplazar esa mano de obra? El ciclo se repetiría, impulsando aún más el bienestar de los consumidores, el crecimiento económico y el crecimiento del empleo y los salarios. Sería una espiral recta hacia una utopía material con la que ni Adam Smith ni Karl Marx se atrevieron a soñar jamás. 

Deberíamos tener tanta suerte.

Riesgo n.º 4 de la IA: ¿Conducirá la IA a una desigualdad paralizante?

Hablando de Karl Marx, la preocupación de que la IA se lleve puestos de trabajo pasa directamente al siguiente riesgo declarado de IA, que es, vale, Marc, supongamos que la IA se lleva todos los trabajos, ya sea para bien o para mal. ¿No resultará eso en una desigualdad de riqueza masiva y paralizante, a medida que los propietarios de la IA obtengan todas las recompensas económicas y la gente común no obtenga nada?

Da la casualidad de que ésta era una afirmación central del marxismo: que los propietarios de los medios de producción (la burguesía) inevitablemente robarían toda la riqueza social a las personas que realizan el trabajo real: el proletariado. Ésta es otra falacia que simplemente no desaparecerá por mucho que la realidad la desmienta con frecuencia. Pero de todos modos le clavamos una estaca en el corazón.

El error de esta teoría es que, como propietario de una pieza de tecnología, no le conviene guardársela; de hecho, le conviene venderla a tantos clientes como sea posible. El mercado más grande del mundo para cualquier producto es el mundo entero, los 8 mil millones de nosotros. Y así, en realidad, cada nueva tecnología –incluso aquellas que comienzan vendiéndose al aire enrarecido de las grandes empresas bien pagadas o de los consumidores adinerados– prolifera rápidamente hasta que está en manos del mercado de masas más grande posible, en última instancia, de todos los habitantes del planeta.

El ejemplo clásico de esto fue el llamado «plan secreto»  de Elon Musk –que naturalmente publicó abiertamente– para Tesla en 2006:

Paso 1: construye un auto deportivo [caro]

Paso 2: use ese dinero para construir un automóvil asequible

Paso 3: Usa ese dinero para construir un automóvil aún más asequible

…que es, por supuesto, exactamente lo que ha hecho, convirtiéndose como resultado en el hombre más rico del mundo.

Ese último punto es clave. ¿Elon sería aún más rico si hoy solo vendiera autos a gente rica? No. ¿Sería aún más rico si sólo fabricara coches para él mismo? Por supuesto que no. No, maximiza sus propios beneficios vendiendo al mercado más grande posible: el mundo.

En resumen, todo el mundo entiende lo que quiere, como hemos visto en el pasado no sólo con los coches, sino también con la electricidad, la radio, los ordenadores, Internet, los teléfonos móviles y los motores de búsqueda. Los fabricantes de tales tecnologías están muy motivados para reducir sus precios hasta que todos en el planeta puedan permitírselos. Esto es precisamente lo que ya está sucediendo en la IA: es por eso que hoy en día se puede utilizar la IA generativa de última generación no sólo a bajo costo sino incluso gratis en forma de Microsoft Bing y Google Bard, y es lo que seguirá sucediendo. No porque esos vendedores sean tontos o generosos, sino precisamente porque son codiciosos: quieren maximizar el tamaño de su mercado, lo que maximiza sus ganancias.

Entonces, lo que sucede es lo opuesto a la tecnología que impulsa la centralización de la riqueza: los clientes individuales de la tecnología, que en última instancia incluyen a todos los habitantes del planeta, están empoderados y capturan la mayor parte del valor generado.. Al igual que con tecnologías anteriores, las empresas que construyen IA (suponiendo que tengan que funcionar en un mercado libre) competirán furiosamente para que esto suceda.

Marx estaba equivocado entonces y está equivocado ahora.

Esto no quiere decir que la desigualdad no sea un problema en nuestra sociedad. Lo es, simplemente no está siendo impulsado por la tecnología, sino por lo contrario por los sectores de la economía que son más resistentes a las nuevas tecnologías, que tienen la mayor intervención gubernamental para impedir la adopción de nuevas tecnologías como la IA, específicamente vivienda, educación y atención médica. El riesgo real de la IA y la desigualdad no es que la IA cause más desigualdad, sino más bien que no permitiremos que la IA se utilice para reducir la desigualdad.

Riesgo n.º 5 de la IA: ¿La IA llevará a que las personas malas hagan cosas malas?

Hasta ahora he explicado por qué cuatro de los cinco riesgos de la IA propuestos con mayor frecuencia no son realmente reales: la IA no cobrará vida y nos matará, la IA no arruinará nuestra sociedad, la IA no causará desempleo masivo y la IA no causará un ruinoso aumento de la desigualdad. Pero ahora abordemos el quinto, con el que realmente estoy de acuerdo: la IA facilitará que las personas malas hagan cosas malas.

En cierto sentido esto es una tautología. La tecnología es una herramienta. Las herramientas, empezando por el fuego y las piedras, pueden usarse para hacer cosas buenas (cocinar alimentos y construir casas) y cosas malas (quemar y aporrear a la gente). Cualquier tecnología puede usarse para bien o para mal. Me parece bien. Y la IA facilitará que criminales, terroristas y gobiernos hostiles hagan cosas malas, sin duda.

Esto hace que algunas personas propongan, bueno, en ese caso, no nos arriesguemos, prohibamos la IA ahora antes de que esto pueda suceder . Desafortunadamente, la IA no es un material físico esotérico difícil de conseguir, como el plutonio. Es todo lo contrario, es el material más fácil de conseguir en el mundo: matemáticas y código.

El gato de la IA obviamente ya está fuera de la bolsa. Puede aprender a crear IA a partir de miles de cursos, libros, artículos y vídeos gratuitos en línea, y cada día proliferan excelentes implementaciones de código abierto . La IA es como el aire: estará en todas partes. ¿Sería tan draconiano el nivel de opresión totalitaria que se requeriría para arrestar a alguien así? ¿Un gobierno mundial monitoreando y controlando todas las computadoras? ¿Matones con botas militares en helicópteros negros se apoderan de GPU deshonestas? – que no nos quedaría una sociedad que proteger.

Por lo tanto, hay dos formas muy sencillas de abordar el riesgo de que personas malas hagan cosas malas con la IA, y estas son precisamente en las que deberíamos centrarnos.

En primer lugar, tenemos leyes vigentes para penalizar la mayoría de las cosas malas que cualquiera pueda hacer con la IA. ¿Hackear el Pentágono? Eso es un crimen. ¿Robar dinero de un banco? Eso es un crimen. ¿Crear un arma biológica? Eso es un crimen. ¿Cometer un acto terrorista? Eso es un crimen. Simplemente podemos concentrarnos en prevenir esos crímenes cuando podamos y procesarlos cuando no podamos. Ni siquiera necesitamos nuevas leyes; no tengo conocimiento de ningún mal uso real de la IA que se haya propuesto y que no sea ya ilegal. Y si se identifica un nuevo mal uso, prohibimos ese uso. QED.

Pero notarás lo que introduje allí: dije que deberíamos centrarnos primero en prevenir los delitos asistidos por IA antes de que ocurran. ¿No significaría esa prevención prohibir la IA? Bueno, hay otra forma de prevenir este tipo de acciones y es utilizar la IA como herramienta defensiva . Las mismas capacidades que hacen que la IA sea peligrosa en manos de los malos con malos objetivos la hacen poderosa en manos de los buenos con buenos objetivos, específicamente los buenos cuyo trabajo es evitar que sucedan cosas malas.

Por ejemplo, si le preocupa que la IA genere personas y vídeos falsos, la respuesta es crear nuevos sistemas donde las personas puedan verificarse a sí misma y al contenido real mediante firmas criptográficas. La creación y alteración digital de contenido tanto real como falso ya existía antes de la IA; La respuesta no es prohibir los procesadores de texto y Photoshop (o la IA), sino utilizar la tecnología para construir un sistema que realmente resuelva el problema.

Entonces, en segundo lugar, hagamos mayores esfuerzos para utilizar la IA con fines buenos, legítimos y defensivos . Pongamos a la IA a trabajar en la ciberdefensa, en la defensa biológica, en la caza de terroristas y en todo lo que hagamos para mantenernos seguros a nosotros mismos, a nuestras comunidades y a nuestra nación.

Por supuesto, ya hay muchas personas inteligentes dentro y fuera del gobierno que hacen exactamente esto, pero si aplicamos todo el esfuerzo y la capacidad intelectual que actualmente está obsesionado con la perspectiva inútil de prohibir la IA para usarla para protegernos contra personas malas que hacen cosas malas , Creo que no hay duda de que un mundo dotado de IA será mucho más seguro que el mundo en el que vivimos hoy.

El riesgo real de no perseguir la IA con la máxima fuerza y ​​velocidad

Hay un último y real riesgo de IA que probablemente sea el más aterrador:

La IA no sólo se está desarrollando en las sociedades relativamente libres de Occidente, sino que también la está desarrollando el Partido Comunista de la República Popular China.

China tiene una visión de la IA muy diferente a la nuestra: la ven como un mecanismo de control autoritario de la población, y punto. Ni siquiera guardan esto en secreto, lo tienen muy claro y ya están siguiendo su agenda. Y no tienen la intención de limitar su estrategia de IA a China: tienen la intención de proliferarla en todo el mundo , en todas partes donde están impulsando redes 5G, en todas partes están prestando dinero de la Franja y la Ruta, en todas partes están proporcionando aplicaciones amigables para el consumidor como Tiktok que sirven. como interfaces de su IA de comando y control centralizado.

El mayor riesgo de la IA es que China consiga el dominio mundial de la IA y nosotros –Estados Unidos y Occidente– no.

Propongo una estrategia sencilla sobre qué hacer al respecto; de hecho, la misma estrategia que utilizó el presidente Ronald Reagan para ganar la primera Guerra Fría con la Unión Soviética.

«Nosotros ganamos, ellos pierden»

En lugar de permitir que pánicos infundados en torno a la IA asesina, la IA “dañina”, la IA que destruye empleos y la IA generadora de desigualdad nos pongan de espaldas, nosotros en Estados Unidos y Occidente deberíamos apoyarnos en la IA lo más que podamos. .

Deberíamos tratar de ganar la carrera hacia la superioridad tecnológica global de la IA y asegurarnos de que China no lo haga.

En el proceso, debemos introducir la IA en nuestra economía y sociedad lo más rápido y con más fuerza que podamos, a fin de maximizar sus beneficios para la productividad económica y el potencial humano.

Esta es la mejor manera de compensar los riesgos reales de la IA y de garantizar que nuestra forma de vida no se vea desplazada por la visión china, mucho más oscura.

¿Lo que se debe hacer?

Propongo un plan sencillo:

  • A las grandes empresas de IA se les debe permitir construir IA tan rápida y agresivamente como puedan, pero no se les debe permitir lograr la captura regulatoria, no se les debe permitir establecer un cártel de protección gubernamental que esté aislado de la competencia del mercado debido a afirmaciones incorrectas del riesgo de la IA. Esto maximizará los beneficios tecnológicos y sociales de las asombrosas capacidades de estas empresas, que son joyas del capitalismo moderno.
  • A las empresas emergentes de IA se les debería permitir desarrollar IA lo más rápida y agresivamente posible . No deberían enfrentarse a la protección otorgada por el gobierno a las grandes empresas, ni deberían recibir asistencia gubernamental. Simplemente se les debería permitir competir. Si las nuevas empresas no tienen éxito, su presencia en el mercado también motivará continuamente a las grandes empresas a dar lo mejor de sí mismas: nuestras economías y sociedades ganan de cualquier manera.
  • Se debe permitir que la IA de código abierto prolifere libremente y compita tanto con las grandes empresas de IA como con las nuevas empresas. No debería haber barreras regulatorias de ningún tipo para el código abierto. Incluso cuando el código abierto no supera a las empresas, su disponibilidad generalizada es una bendición para los estudiantes de todo el mundo que desean aprender cómo construir y utilizar la IA para convertirse en parte del futuro tecnológico, y garantizará que la IA esté disponible para todos los que puedan. beneficiarse de él sin importar quiénes sean o cuánto dinero tengan.
  • Para compensar el riesgo de que personas malas hagan cosas malas con la IA, los gobiernos que trabajen en asociación con el sector privado deberían participar enérgicamente en cada área de riesgo potencial para utilizar la IA para maximizar las capacidades defensivas de la sociedad. Esto no debería limitarse a los riesgos provocados por la IA, sino también a problemas más generales como la desnutrición, las enfermedades y el clima. La IA puede ser una herramienta increíblemente poderosa para resolver problemas y deberíamos adoptarla como tal.
  • Para evitar el riesgo de que China logre el dominio global de la IA, deberíamos utilizar todo el poder de nuestro sector privado, nuestro establishment científico y nuestros gobiernos en conjunto para llevar a la IA estadounidense y occidental a un dominio global absoluto, incluso, en última instancia, dentro de la propia China. Nosotros ganamos, ellos pierden.

Y así es como utilizamos la IA para salvar el mundo.

Es hora de construir.

Leyendas y héroes

Cierro con dos afirmaciones simples.

El desarrollo de la IA comenzó en la década de 1940, simultáneamente con la invención de la computadora.  El primer artículo científico sobre redes neuronales (la arquitectura de la IA que tenemos hoy) se publicó en 1943. Generaciones enteras de científicos de IA a lo largo de los últimos 80 años nacieron, fueron a la escuela, trabajaron y, en muchos casos, fallecieron sin ver la recompensa que estamos recibiendo ahora. Son leyendas, cada una.

Hoy en día, legiones cada vez mayores de ingenieros (muchos de los cuales son jóvenes y pueden haber tenido abuelos o incluso bisabuelos involucrados en la creación de las ideas detrás de la IA) están trabajando para hacer de la IA una realidad, contra un muro de alarmismo y fatalismo que está intentando pintarlos como villanos imprudentes. No creo que sean imprudentes ni villanos. Son héroes, todos. Mi empresa y yo estamos encantados de respaldar a tantos de ellos como podamos, y estaremos junto a ellos y su trabajo al 100%.

1 comentario en “Dos posturas sobre la inteligencia artificial

Deja un comentario