Antes de ti está la segunda parte de un artículo de la serie "Espera, cómo todo esto puede ser real, por qué todavía no se habla en cada esquina". En la serie anterior, se supo que una explosión de inteligencia se está acercando gradualmente a la gente del planeta Tierra, está tratando de desarrollarse desde una inteligencia estrechamente enfocada a una inteligencia universal y, finalmente, a una superinteligencia artificial.
“Quizás estemos ante un problema extremadamente difícil, y no se sabe cuánto tiempo se asigna para su solución, pero el futuro de la humanidad puede depender de su solución”. - Nick Bostrom.
La primera parte del artículo comenzó de manera bastante inocente. Hablamos de la inteligencia artificial de enfoque estrecho (IA, que se especializa en resolver un problema específico como determinar rutas o jugar al ajedrez), hay mucha de ella en nuestro mundo. Luego analizaron por qué es tan difícil desarrollar la inteligencia artificial direccional general (AGI, o IA, que, en términos de capacidades intelectuales, se puede comparar con un humano para resolver cualquier problema), es tan difícil. Concluimos que la tasa exponencial de avance tecnológico sugiere que AGI podría estar a la vuelta de la esquina muy pronto. Al final, decidimos que tan pronto como las máquinas alcanzaran la inteligencia humana, lo siguiente podría suceder de inmediato:
Como es habitual, miramos la pantalla, sin creer que la superinteligencia artificial (ISI, que es mucho más inteligente que cualquier persona) pueda aparecer durante nuestra vida, y eligiendo las emociones que mejor reflejarían nuestra opinión sobre este tema.
Antes de sumergirnos en los detalles de ISI, recordemos lo que significa para una máquina ser superinteligente.
La principal diferencia radica entre la superinteligencia rápida y la superinteligencia de calidad. A menudo, lo primero que viene a la mente cuando se piensa en una computadora superinteligente es que puede pensar mucho más rápido que una persona, millones de veces más rápido, y en cinco minutos comprenderá lo que le tomaría a una persona diez años. ("¡Sé kung fu!")
Suena impresionante, y el ISI realmente debería pensar más rápido que cualquiera de las personas, pero la principal característica que lo separa será la calidad de su inteligencia, que es completamente diferente. Los humanos son mucho más inteligentes que los monos, no porque piensen más rápido, sino porque sus cerebros contienen una serie de módulos cognitivos ingeniosos que llevan a cabo representaciones lingüísticas complejas, planificación a largo plazo, pensamiento abstracto, que los monos no son capaces de hacer. Si acelera el cerebro de un mono mil veces, no se volverá más inteligente que nosotros, incluso después de diez años no podrá ensamblar un constructor de acuerdo con las instrucciones, lo que a una persona le tomaría un par de horas como máximo. Hay cosas que un mono nunca aprenderá, no importa cuántas horas dedique o qué tan rápido funcione su cerebro.
Además, el mono no sabe cuán humanamente, porque su cerebro simplemente no es capaz de darse cuenta de la existencia de otros mundos; el mono puede saber qué es una persona y qué es un rascacielos, pero nunca entenderá que un rascacielos fue construido por gente. En su mundo, todo pertenece a la naturaleza, y el macaco no solo no puede construir un rascacielos, sino que también comprende que cualquiera puede construirlo. Y este es el resultado de una pequeña diferencia en la calidad de la inteligencia.
En el esquema general de inteligencia del que estamos hablando, o simplemente por los estándares de los seres biológicos, la diferencia en la calidad de la inteligencia entre humanos y monos es minúscula. En el artículo anterior, colocamos las habilidades cognitivas biológicas en una escalera:
Para comprender qué tan seria será una máquina superinteligente, colóquela dos niveles más alta que la persona en esa escalera. Esta máquina puede ser un poco superinteligente, pero su superioridad sobre nuestras habilidades cognitivas será la misma que la nuestra, sobre los monos. Y así como un chimpancé nunca comprenderá que se puede construir un rascacielos, es posible que nunca entendamos qué entenderá una máquina un par de pasos más arriba, incluso si la máquina intenta explicárnoslo. Pero estos son solo un par de pasos. La máquina más inteligente verá hormigas en nosotros; nos enseñará las cosas más simples desde su posición durante años, y estos intentos serán completamente inútiles.
El tipo de superinteligencia del que hablaremos hoy se encuentra mucho más allá de esta escalera. Esta es una explosión de inteligencia: cuando cuanto más inteligente se vuelve un automóvil, más rápido puede aumentar su propia inteligencia, aumentando gradualmente el impulso. Una máquina como esta puede tardar años en superar a los chimpancés en inteligencia, pero quizás un par de horas en superarnos a nosotros por un par de puntos. A partir de ese momento, el coche ya puede saltar cuatro pasos por segundo. Es por eso que debemos entender que muy pronto después de que aparezca la primera noticia de que la máquina ha alcanzado el nivel de inteligencia humana, podemos enfrentar la realidad de la convivencia en la Tierra con algo que será mucho más alto que nosotros en esta escalera (o tal vez, y millones de veces más):
Y como hemos establecido que es completamente inútil tratar de entender el poder de una máquina que está solo dos pasos por encima de nosotros, definamos de una vez por todas que no hay forma de entender qué hará el ISI y cuáles serán las consecuencias de esto será para nosotros. Cualquiera que afirme lo contrario simplemente no comprende lo que significa superinteligencia.
La evolución ha hecho evolucionar lenta y gradualmente el cerebro biológico durante cientos de millones de años, y si los humanos crean una máquina superinteligente, en cierto sentido trascenderemos la evolución. O será parte de la evolución; tal vez la evolución funcione de tal manera que la inteligencia se desarrolle gradualmente hasta llegar a un punto de inflexión que presagia un nuevo futuro para todos los seres vivos:
Por razones que discutiremos más adelante, una gran parte de la comunidad científica cree que la pregunta no es si llegaremos a este punto de inflexión, sino cuándo.
¿Dónde terminamos después de esto?
Creo que nadie en este mundo, ni tú ni yo, podremos decir qué sucederá cuando lleguemos al punto de inflexión. El filósofo de Oxford y destacado teórico de la IA, Nick Bostrom, cree que podemos resumir todos los resultados posibles en dos categorías amplias.
Primero, mirando la historia, sabemos lo siguiente sobre la vida: las especies aparecen, existen durante un cierto tiempo y luego, inevitablemente, se caen de la viga de equilibrio y mueren.
"Todas las especies mueren" ha sido una regla tan confiable en la historia como "todas las personas mueren algún día". El 99,9% de las especies han caído de un tronco de vida, y está bastante claro que si una especie cuelga de este tronco durante demasiado tiempo, una ráfaga de viento natural o un asteroide repentino volcará el tronco. Bostrom llama extinción al estado de un atractor: un lugar donde todas las especies se equilibran para no caer donde ninguna especie ha regresado todavía.
Y aunque la mayoría de los científicos admiten que ISI tendrá la capacidad de condenar a las personas a la extinción, muchos también creen que el uso de las capacidades de ISI permitirá a los individuos (y a la especie en su conjunto) alcanzar el segundo estado del atractor: la inmortalidad de la especie. Bostrom cree que la inmortalidad de una especie es tanto atrayente como la extinción de una especie, es decir, si llegamos a esto, estaremos condenados a la existencia eterna. Por lo tanto, incluso si todas las especies hasta ahora cayeron de este palo a la vorágine de la extinción, Bostrom cree que el tronco tiene dos lados, y simplemente no apareció en la Tierra tal inteligencia que entendiera cómo caer al otro lado.
Si Bostrom y otros están en lo cierto, y a juzgar por toda la información disponible para nosotros, es muy posible que tengan razón, debemos aceptar dos hechos muy impactantes:
La aparición de ISI por primera vez en la historia abrirá el camino para que una especie alcance la inmortalidad y salga del ciclo fatal de extinción.
El surgimiento de ISI tendrá un impacto tan inimaginablemente enorme que, muy probablemente, empujará a la humanidad fuera de este registro en una dirección u otra.
Es posible que cuando la evolución llegue a un punto de inflexión, siempre ponga fin a la relación de las personas con la corriente de la vida y cree un mundo nuevo, con o sin personas.
Esto lleva a una pregunta interesante que solo un fastidio no se haría: ¿cuándo llegaremos a este punto de inflexión y dónde nos colocará? Nadie en el mundo conoce la respuesta a esta doble pregunta, pero muchas personas inteligentes han intentado resolverla durante décadas. Durante el resto del artículo, averiguaremos de dónde vienen.
* * *
Comencemos con la primera parte de esta pregunta: ¿cuándo deberíamos llegar al punto de inflexión? En otras palabras: ¿cuánto tiempo queda hasta que la primera máquina alcance la superinteligencia?
Las opiniones varían de un caso a otro. Muchos, incluido el profesor Vernor Vinge, el científico Ben Herzel, el cofundador de Sun Microsystems, Bill Joy, el futurista Ray Kurzweil, estuvieron de acuerdo con el experto en aprendizaje automático Jeremy Howard cuando presentó el siguiente gráfico en TED Talk:
Estas personas comparten la opinión de que ISI llegará pronto: este crecimiento exponencial, que hoy nos parece lento, explotará literalmente en las próximas décadas.
Otros, como el cofundador de Microsoft Paul Allen, el psicólogo investigador Gary Marcus, el experto en informática Ernest Davis y el empresario tecnológico Mitch Kapor, creen que pensadores como Kurzweil están subestimando seriamente la magnitud del problema y piensan que no estamos tan cerca de un problema. punto de inflexión.
El bando de Kurzweil sostiene que la única subestimación que se produce es el desprecio por el crecimiento exponencial, y los escépticos pueden compararse con aquellos que observaron el lento auge de Internet en 1985 y argumentaron que no tendría ningún impacto en el mundo en un futuro próximo.
Los escépticos pueden rechazar que es más difícil para el progreso dar cada paso posterior cuando se trata del desarrollo exponencial de la inteligencia, que neutraliza la naturaleza exponencial típica del progreso tecnológico. Etc.
El tercer campo, en el que se encuentra Nick Bostrom, no está de acuerdo ni con el primero ni con el segundo, argumentando que a) todo esto puede suceder absolutamente en un futuro próximo; yb) no hay garantía de que esto suceda en absoluto o de que llevará más tiempo.
Otros, como el filósofo Hubert Dreyfus, creen que los tres grupos creen ingenuamente que habrá un punto de inflexión y que lo más probable es que nunca lleguemos a ISI.
¿Qué sucede cuando juntamos todas estas opiniones?
En 2013, Bostrom realizó una encuesta en la que entrevistó a cientos de expertos en inteligencia artificial en una serie de conferencias sobre el siguiente tema: "¿Cuáles serán sus predicciones para lograr AGI a nivel humano?" y nos pidió que nombremos un año optimista (en el que tendremos AGI con un 10 por ciento de probabilidad), una suposición realista (un año en el que tendremos AGI con una probabilidad del 50 por ciento) y una suposición confiable (el primer año en el que Aparecerá AGI desde una probabilidad del 90 por ciento). Aquí están los resultados:
* Año optimista promedio (10%): 2022
* Año realista medio (50%): 2040
* Año pesimista medio (90%): 2075
Los encuestados promedio creen que en 25 años tendremos AGI en lugar de no tenerlos. Una probabilidad del 90 por ciento de que ocurra AGI en 2075 significa que si todavía es bastante joven ahora, lo más probable es que ocurra en su vida.
Un estudio separado realizado recientemente por James Barratt (autor del aclamado y muy bueno libro Our Latest Invention, extractos de Presenté a la atención de los lectores Hi-News.ru) y Ben Hertzel en la Conferencia AGI, la Conferencia anual de AGI, simplemente mostraron las opiniones de la gente sobre el año en el que llegamos a AGI: 2030, 2050, 2100, más tarde o nunca. Aquí están los resultados:
* 2030: 42% de los encuestados
* 2050: 25%
* 2100: 20%
Después de 2100: 10%
Nunca: 2%
Similar a los resultados de Bostrom. En la encuesta de Barratt, más de dos tercios de los encuestados creen que AGI estará aquí para 2050, y menos de la mitad cree que AGI aparecerá en los próximos 15 años. También llama la atención que solo el 2% de los encuestados, en principio, no ve AGI en nuestro futuro.
Pero AGI no es un punto de inflexión como ISI. ¿Cuándo, según los expertos, tendremos un ISI?
Bostrom preguntó a los expertos cuándo llegaremos a ASI: a) dos años después de llegar a AGI (es decir, casi instantáneamente debido a una explosión de inteligencia); b) después de 30 años. Resultados?
La opinión promedio es que la transición rápida de AGI a ISI ocurrirá con una probabilidad del 10%, pero en 30 años o menos ocurrirá con una probabilidad del 75%.
A partir de estos datos, no sabemos qué fecha los encuestados llamarían un 50 por ciento de probabilidad de un ASI, pero según las dos respuestas anteriores, supongamos que son 20 años. Es decir, los principales expertos en inteligencia artificial del mundo creen que el punto de inflexión llegará en 2060 (AGI aparecerá en 2040 +, tomará 20 años para la transición de AGI a ISI).
Por supuesto, todas las estadísticas anteriores son especulativas y simplemente representan la opinión de expertos en el campo de la inteligencia artificial, pero también indican que la mayoría de las personas interesadas están de acuerdo en que para 2060, es probable que llegue la IA. En solo 45 años.
Pasemos a la segunda pregunta. Cuando lleguemos al punto de inflexión, ¿qué lado de la elección fatal nos determinará?
La superinteligencia tendrá el poder más poderoso, y la pregunta crítica para nosotros será la siguiente:
¿Quién o qué controlará este poder y cuál será su motivación?
La respuesta a esta pregunta dependerá de si el ISI obtiene un desarrollo increíblemente poderoso, un desarrollo inmensamente aterrador o algo intermedio.
Por supuesto, la comunidad de expertos también está tratando de responder a estas preguntas. La encuesta de Bostrom analizó la probabilidad de posibles consecuencias del impacto de AGI en la humanidad, y resultó que con un 52 por ciento de posibilidades de que todo salga muy bien y con un 31 por ciento de posibilidades de que todo salga mal o extremadamente mal. La encuesta adjunta al final de la parte anterior de este tema, realizada entre ustedes, queridos lectores de Hi-News, mostró aproximadamente los mismos resultados. Para un resultado relativamente neutral, la probabilidad fue solo del 17%. En otras palabras, todos creemos que AGI será un gran problema. También vale la pena señalar que esta encuesta se refiere a la aparición de AGI; en el caso de ISI, el porcentaje de neutralidad será menor.
Antes de profundizar en el pensamiento sobre los lados buenos y malos de la pregunta, combinemos ambos lados de la pregunta: "¿cuándo sucederá esto?" y "¿esto es bueno o malo?" en una tabla que cubre las opiniones de la mayoría de los expertos.
Hablaremos sobre el campamento principal en un minuto, pero primero decida su posición. Lo más probable es que estés en el mismo lugar que yo antes de empezar a trabajar en este tema. Hay varias razones por las que la gente no piensa en absoluto en este tema:
* Como se mencionó en la primera parte, las películas han confundido seriamente a personas y hechos, presentando escenarios poco realistas con inteligencia artificial, lo que llevó al hecho de que no deberíamos tomarnos la IA en serio en absoluto. James Barratt comparó esta situación con ser emitida por los Centros para el Control de Enfermedades (CDC) con una advertencia seria sobre los vampiros en nuestro futuro.
* Debido a los llamados sesgos cognitivos, es muy difícil para nosotros creer que algo es real hasta que tengamos pruebas. Uno puede imaginarse con confianza a los informáticos de 1988 discutiendo regularmente las consecuencias de gran alcance de Internet y en qué podría llegar a ser, pero la gente apenas creía que cambiaría sus vidas hasta que realmente sucedió. Es solo que las computadoras no sabían cómo hacer esto en 1988, y la gente simplemente miraba sus computadoras y pensaba: “¿En serio? ¿Es esto lo que cambiará el mundo? Su imaginación estaba limitada por lo que habían aprendido de la experiencia personal, sabían lo que era una computadora y era difícil imaginar lo que una computadora sería capaz de hacer en el futuro. Lo mismo está sucediendo ahora con la IA. Escuchamos que se convertirá en algo serio, pero como aún no lo hemos encontrado cara a cara y, en general, observamos manifestaciones bastante débiles de IA en nuestro mundo moderno, es bastante difícil para nosotros creer que lo hará radicalmente. cambia nuestra vida. Es contra estos prejuicios que numerosos expertos de todos los campos, así como personas interesadas, se oponen a tratar de captar nuestra atención a través del ruido del egocentrismo colectivo cotidiano.
* Incluso si creyéramos en todo esto, ¿cuántas veces hoy has pensado en el hecho de que pasarás el resto de la eternidad en la nada? Un poco de acuerdo. Incluso si este hecho es mucho más importante que cualquier cosa que haga día tras día. Esto se debe a que nuestro cerebro generalmente se concentra en cosas pequeñas y cotidianas, sin importar cuán delirante sea la situación a largo plazo en la que nos encontremos. Es solo que estamos hechos.
Uno de los objetivos de este artículo es sacarte del campamento llamado "Me gusta pensar en otras cosas" y colocarte en el campamento de expertos, incluso si estás parado en la encrucijada entre las dos líneas punteadas del cuadrado. arriba, completamente indeciso.
En el curso de la investigación, resulta obvio que las opiniones de la mayoría de las personas se desvían rápidamente hacia el "campo principal", y tres cuartas partes de los expertos se dividen en dos subcampos en el campo principal.
Visitaremos ambos campamentos en su totalidad. Empecemos por la diversión.
¿Por qué el futuro podría ser nuestro mayor sueño?
A medida que exploramos el mundo de la IA, encontramos sorprendentemente a muchas personas en nuestra zona de confort. La gente en el cuadrado superior derecho está llena de emoción. Creen que caeremos en el lado bueno del tronco, y también creen que inevitablemente llegaremos a esto. Para ellos, el futuro es solo lo mejor que solo se puede soñar.
El punto que distingue a estas personas de otros pensadores no es que quieran estar en el lado feliz, sino que están seguros de que es ella quien nos espera.
Esta confianza surge de la controversia. Los críticos creen que proviene de una emoción deslumbrante que eclipsa los posibles lados negativos. Pero los defensores dicen que las predicciones sombrías son siempre ingenuas; la tecnología continúa y siempre nos ayudará más que dañarnos.
Usted es libre de elegir cualquiera de estas opiniones, pero deje de lado el escepticismo y observe bien el lado feliz de la barra de equilibrio, tratando de aceptar el hecho de que todo lo que lee puede que ya haya sucedido. Si les mostraras a los cazadores-recolectores nuestro mundo de comodidad, tecnología y abundancia infinita, les parecería una ficción mágica, y nos comportamos con bastante modestia, incapaces de admitir que la misma transformación incomprensible nos espera en el futuro.
Nick Bostrom describe tres caminos que puede tomar un sistema de IA superinteligente:
* Un oráculo que puede responder cualquier pregunta exacta, incluidas preguntas difíciles que los humanos no pueden responder, por ejemplo, "¿cómo hacer que el motor de un automóvil sea más eficiente?" Google es un tipo primitivo de "oráculo".
* Un genio que ejecutará cualquier comando de alto nivel, utilizando el ensamblador molecular para crear una versión nueva y más eficiente de un motor de automóvil, y estará esperando el próximo comando.
* Un soberano que tendrá amplio acceso y capacidad para desenvolverse libremente en el mundo, tomando sus propias decisiones y mejorando el proceso. Él inventará una forma de transporte privado más barata, rápida y segura que un automóvil.
Estas preguntas y tareas, que nos parecen difíciles, le parecerán al sistema superinteligente como si alguien pidiera mejorar la situación “se me cayó el lápiz de la mesa”, en el que simplemente lo recogías y lo volvías a poner.
Eliezer Yudkowski, un especialista estadounidense en inteligencia artificial, lo expresó bien:
“No hay problemas difíciles, solo problemas que son difíciles para un cierto nivel de inteligencia. Si va un paso más alto (en términos de inteligencia), algunos problemas pasarán repentinamente de la categoría de "imposibles" al campo de los "obvios". Un paso más arriba, y todos serán obvios ".
Hay muchos científicos, inventores y emprendedores impacientes que han elegido una zona de confianza y comodidad de nuestra mesa, pero solo necesitamos un guía para caminar hacia lo mejor en este mejor de los mundos.
Ray Kurzweil es ambiguo. Algunos idolatran sus ideas, otros lo desprecian. Algunos se quedan en el medio: Douglas Hofstadter, al discutir las ideas de los libros de Kurzweil, señaló elocuentemente que "es como si tomaras mucha comida buena y una caca de perro pequeña, y luego mezclaras todo de tal manera que es imposible de entender lo que es bueno y lo que es malo ".
Te gusten o no sus ideas, es imposible dejarlas pasar sin una sombra de interés. Comenzó a inventar cosas cuando era adolescente y, en los años siguientes, inventó varias cosas importantes, incluido el primer escáner de superficie plana, el primer escáner para convertir texto en voz, el conocido sintetizador de música Kurzweil (el primer piano eléctrico real) y el primer reconocedor de voz comercialmente exitoso. También es autor de cinco libros sensacionales. Kurzweil es apreciado por sus atrevidas predicciones, y su historial es bastante bueno: a finales de los 80, cuando Internet aún estaba en su infancia, predijo que en la década de 2000 la Web se convertiría en un fenómeno global. El Wall Street Journal llamó a Kurzweil un "genio inquieto", Forbes una "máquina de pensamiento global", Inc. Revista - "El legítimo heredero de Edison", Bill Gates - "el mejor de los que predicen el futuro de la inteligencia artificial". En 2012, el cofundador de Google, Larry Page, invitó a Kurzweil al puesto de director de tecnología. En 2011, cofundó Singularity University, que está alojada por la NASA y en parte patrocinada por Google.
Su biografía importa. Cuando Kurzweil habla de su visión del futuro, suena como una locura, pero lo realmente loco es que está lejos de estar loco: es una persona increíblemente inteligente, educada y cuerda. Puede pensar que está equivocado en sus predicciones, pero no es tonto. Las predicciones de Kurzweil son compartidas por muchos expertos en la zona de confort, Peter Diamandis y Ben Herzel. Esto es lo que cree que sucederá.
Cronología
Kurzweil cree que las computadoras alcanzarán el nivel de inteligencia artificial general (AGI) para 2029, y para 2045 no solo tendremos superinteligencia artificial, sino también un mundo completamente nuevo: el tiempo de la llamada singularidad. Su cronología de la IA todavía se considera escandalosamente exagerada, pero durante los últimos 15 años, el rápido desarrollo de sistemas de inteligencia artificial (IA) altamente enfocados ha obligado a muchos expertos a ponerse del lado de Kurzweil. Sus predicciones son aún más ambiciosas que las de la encuesta de Bostrom (AGI para 2040, ISI para 2060), pero no mucho.
Según Kurzweil, la singularidad de 2045 está impulsada por tres revoluciones simultáneas en biotecnología, nanotecnología y, lo que es más importante, IA. Pero antes de continuar, y la nanotecnología sigue de cerca a la inteligencia artificial, dediquemos un momento a la nanotecnología.
Algunas palabras sobre nanotecnología
Por lo general, llamamos tecnologías de nanotecnología que se ocupan de la manipulación de materia en el rango de 1 a 100 nanómetros. Un nanómetro es una mil millonésima parte de un metro, o una millonésima de milímetro; dentro del rango de 1-100 nanómetros, se pueden acomodar virus (100 nm de diámetro), ADN (10 nm de ancho), moléculas de hemoglobina (5 nm), glucosa (1 nm) y otros. Si la nanotecnología llega a estar sujeta a nosotros, el siguiente paso será manipular átomos individuales que tengan menos de un orden de magnitud (~, 1 nm).
Para comprender dónde se encuentran los humanos con problemas al tratar de manipular la materia en tal escala, saltemos a una escala mayor. La Estación Espacial Internacional está a 481 kilómetros sobre la Tierra. Si los humanos fueran gigantes y golpearan la EEI con la cabeza, serían 250.000 veces más grandes de lo que son ahora. Si amplifica algo de 1 a 100 nanómetros 250.000 veces, obtiene 2,5 centímetros. La nanotecnología es el equivalente a un ser humano, orbitando la ISS, tratando de manipular cosas del tamaño de un grano de arena o un globo ocular. Para pasar al siguiente nivel, el control de átomos individuales, el gigante tendrá que colocar con cuidado los objetos con un diámetro de 1/40 de milímetro. La gente común necesitará un microscopio para verlos.
Por primera vez, Richard Feynman habló sobre nanotecnología en 1959. Luego dijo: “Los principios de la física, hasta donde yo sé, no hablan en contra de la posibilidad de controlar las cosas átomo por átomo. En principio, un físico podría sintetizar cualquier sustancia química que un químico haya escrito. ¿Cómo? Colocando los átomos donde dice el químico para obtener la sustancia . Esta es toda la sencillez. Si sabe cómo mover moléculas o átomos individuales, puede hacer casi cualquier cosa.
La nanotecnología se convirtió en un campo científico serio en 1986 cuando el ingeniero Eric Drexler presentó sus fundamentos en su libro seminal Machines of Creation, pero el propio Drexler cree que aquellos que quieran aprender más sobre las ideas modernas en nanotecnología deberían leer su libro de 2013. Abundancia total (Radical Abundancia).
Algunas palabras sobre "sustancia viscosa gris"
Profundizamos en la nanotecnología. En particular, el tema de la "sustancia viscosa gris" es uno de los temas no muy agradables en el campo de la nanotecnología, que no se puede ignorar. Las versiones anteriores de la teoría de la nanotecnología proponían un método de nanoensamblaje que implicaba la creación de billones de diminutos nanorobots que trabajarían juntos para crear algo. Una forma de crear billones de nanorobots es crear uno que pueda auto-replicarse, es decir, de uno a dos, de dos a cuatro, y así sucesivamente. Varios billones de nanorobots aparecerán en un día. Este es el poder del crecimiento exponencial. Gracioso, ¿no es así?
Es gracioso, pero exactamente hasta que conduce al apocalipsis. El problema es que el poder del crecimiento exponencial, que lo convierte en una forma bastante conveniente de crear rápidamente un billón de nanobots, hace que la autorreplicación sea algo aterrador a largo plazo. ¿Qué pasa si el sistema falla y, en lugar de detener la replicación por un par de billones, los nanobots continúan reproduciéndose? ¿Y si todo este proceso depende del carbono? La biomasa de la Tierra contiene 10 ^ 45 átomos de carbono. Un nanobot debería ser del orden de 10 ^ 6 átomos de carbono, por lo que 10 ^ 39 nanobots devorarán toda la vida en la Tierra en solo 130 réplicas. Un océano de nanobots ("sustancia viscosa gris") inundará el planeta. Los científicos creen que los nanobots pueden replicarse en 100 segundos, lo que significa que un simple error puede matar a toda la vida en la Tierra en solo 3,5 horas.
Podría ser incluso peor, si los terroristas y los especialistas desfavorables llegan a las manos de la nanotecnología. Podrían crear varios billones de nanobots y programarlos para que se propaguen silenciosamente por todo el mundo en un par de semanas. Luego, con solo tocar un botón, en solo 90 minutos se comerán de todo, sin ninguna posibilidad.
Si bien esta historia de terror se ha debatido ampliamente durante años, la buena noticia es que es solo una historia de terror. Eric Drexler, quien acuñó el término "sustancia viscosa gris", dijo recientemente lo siguiente: “A la gente le encantan las historias de terror, y esta es una de las historias de terror de zombis. Esta idea en sí misma ya está devorando cerebros ".
Una vez que llegamos al fondo de la nanotecnología, podemos usarla para crear dispositivos técnicos, ropa, alimentos, bioproductos: células sanguíneas, combatientes contra virus y cáncer, tejido muscular, etc., lo que sea. Y en un mundo que usa nanotecnología, el costo de un material ya no estará ligado a su escasez o la complejidad de su proceso de fabricación, sino a la complejidad de su estructura atómica. En el mundo de la nanotecnología, un diamante podría ser más barato que una goma de borrar.
Ni siquiera estamos cerca de eso todavía. Y no está del todo claro si subestimamos o sobrestimamos la complejidad de este camino. Sin embargo, todo va hasta el punto de que la nanotecnología no está lejos. Kurzweil asume que para la década de 2020 los tendremos. Los estados del mundo saben que la nanotecnología puede prometer un gran futuro y, por lo tanto, están invirtiendo muchos miles de millones en ellas.
Imagínense las posibilidades que tendría una computadora superinteligente si llegara a un ensamblador a nanoescala confiable. Pero la nanotecnología es nuestra idea, y estamos tratando de aprovecharla, es difícil para nosotros. ¿Qué pasa si son solo una broma para el sistema ISI, y el ISI mismo presenta tecnologías que serán muchas veces más poderosas que cualquier cosa que podamos, en principio, asumir? Estuvimos de acuerdo: ¿nadie puede imaginar de qué será capaz la superinteligencia artificial? Se cree que nuestros cerebros son incapaces de predecir ni siquiera el mínimo de lo que sucederá.
¿Qué podría hacer la IA por nosotros?
Armado con superinteligencia y toda la tecnología que la superinteligencia podría crear, ISI probablemente podrá resolver todos los problemas de la humanidad. ¿Calentamiento global? ISI primero detendrá las emisiones de carbono al inventar una serie de formas eficientes de generar energía que no estén relacionadas con los combustibles fósiles. Luego se le ocurrirá una forma efectiva e innovadora de eliminar el exceso de CO2 de la atmósfera. ¿Cáncer y otras enfermedades? No hay problema: la atención médica y la medicina cambiarán de maneras inimaginables. ¿Hambre mundial? ISI utilizará la nanotecnología para crear carne que sea idéntica a la carne natural, desde cero, real.
La nanotecnología podrá convertir una pila de basura en una tina de carne fresca u otros alimentos (no necesariamente incluso en su forma habitual, imagina un cubo de manzana gigante) y distribuir toda esta comida en todo el mundo utilizando sistemas de transporte avanzados. Por supuesto, esto será genial para los animales que ya no tienen que morir por comida. ISI también puede hacer muchas otras cosas, como preservar especies en peligro de extinción o incluso recuperar especies extintas del ADN almacenado. ISI puede resolver nuestros problemas macroeconómicos más difíciles - nuestros debates económicos más difíciles, cuestiones éticas y filosóficas, comercio global - todo lo cual será dolorosamente obvio para ISI.
Pero hay algo muy especial que ISI podría hacer por nosotros. Seductor y tentador que lo cambiaría todo: ISI puede ayudarnos a afrontar la mortalidad … Al comprender gradualmente las capacidades de la IA, quizás reconsidere todas sus ideas sobre la muerte.
No había ninguna razón para que la evolución extendiera nuestra vida útil más de lo que lo hace ahora. Si vivimos lo suficiente para dar a luz y criar hijos hasta el punto en que puedan valerse por sí mismos, la evolución es suficiente. Desde un punto de vista evolutivo, más de 30 años son suficientes para el desarrollo, y no hay razón para que las mutaciones prolonguen la vida y reduzcan el valor de la selección natural. William Butler Yates llamó a nuestra especie "un alma unida a un animal moribundo". No es muy divertido.
Y como todos morimos algún día, vivimos con la idea de que la muerte es inevitable. Pensamos en el envejecimiento con el tiempo, seguir avanzando y no poder detener este proceso. Pero el pensamiento de la muerte es traicionero: capturados por ella, nos olvidamos de vivir. Richard Feynman escribió:
“Hay algo maravilloso en biología: no hay nada en esta ciencia que hable de la necesidad de la muerte. Si queremos crear una máquina de movimiento perpetuo, nos damos cuenta de que hemos encontrado suficientes leyes en la física que indican la imposibilidad de esto o que las leyes son incorrectas. Pero no hay nada en biología que indique la inevitabilidad de la muerte. Esto me lleva a creer que no es tan inevitable, y es solo cuestión de tiempo antes de que los biólogos descubran la causa de este problema, esta terrible enfermedad universal, se curará.
El hecho es que el envejecimiento no tiene nada que ver con el tiempo. El envejecimiento es cuando los materiales físicos del cuerpo se desgastan. Las piezas de los coches también se degradan, pero ¿es inevitable el envejecimiento? Si repara su automóvil a medida que se desgastan las piezas, durará para siempre. El cuerpo humano no es diferente, solo más complejo.
Kurzweil habla de nanobots inteligentes conectados a Wi-Fi en el torrente sanguíneo que podrían realizar innumerables tareas para la salud humana, incluida la reparación o reemplazo regular de células desgastadas en cualquier parte del cuerpo. Mejorar este proceso (o encontrar una alternativa sugerida por un ASI más inteligente) no solo mantendrá el cuerpo sano, también puede revertir el envejecimiento. La diferencia entre el cuerpo de una persona de 60 y una de 30 es un puñado de problemas físicos que podrían corregirse con la tecnología adecuada. ISI podría construir un automóvil en el que una persona ingrese cuando tenga 60 años y salga cuando tenga 30 años.
Incluso un cerebro degradado podría renovarse. El ISI seguramente sabría cómo hacer esto sin afectar los datos cerebrales (personalidad, recuerdos, etc.). Un hombre de 90 años que sufre una degradación cerebral completa podría someterse a un reentrenamiento, renovarse y volver al comienzo de su vida. Puede parecer absurdo, pero el cuerpo es un puñado de átomos, y el ISI ciertamente podría manipularlos fácilmente, cualquier estructura atómica. No es tan absurdo.
Kurzweil también cree que los materiales artificiales se integrarán cada vez más en el cuerpo a medida que pase el tiempo. Para empezar, los órganos podrían reemplazarse con versiones de máquinas súper avanzadas que durarían para siempre y nunca fallarían. Luego, podríamos hacer un rediseño completo del cuerpo, reemplazando los glóbulos rojos con nanobots perfectos que se mueven por sí mismos, eliminando la necesidad de un corazón por completo. También podríamos mejorar nuestras habilidades cognitivas, comenzar a pensar miles de millones de veces más rápido y acceder a toda la información disponible para la humanidad a través de la nube.
Las posibilidades para comprender nuevos horizontes serían realmente infinitas. Las personas han logrado dotar al sexo de un nuevo propósito, lo hacen por placer, no solo por reproducción. Kurzweil cree que podemos hacer lo mismo con la comida. Los nanobots podrían brindar una nutrición ideal directamente a las células del cuerpo, permitiendo que sustancias no saludables pasen a través del cuerpo. El teórico de la nanotecnología Robert Freitas ya ha desarrollado un reemplazo para las células sanguíneas que, cuando se implementa en el cuerpo humano, puede permitirle no respirar durante 15 minutos, y esto fue inventado por una persona. Imagínese cuándo el ISI ganará poder.
Después de todo, Kurzweil cree que los humanos llegarán al punto en que se volverán completamente artificiales; el momento en que miramos los materiales biológicos y pensamos en lo primitivos que eran; Momento en el que leeremos sobre las primeras etapas de la historia humana, asombrados de cómo gérmenes, accidentes, enfermedades o simplemente la vejez pueden matar a una persona en contra de su voluntad. En última instancia, los humanos vencerán su propia biología y se volverán eternos: este es el camino hacia el lado feliz de la viga de equilibrio del que hemos estado hablando desde el principio. Y las personas que creen en esto también están seguras de que ese futuro nos espera muy, muy pronto.
Probablemente no le sorprenderá que las ideas de Kurzweil hayan generado fuertes críticas. Su singularidad en 2045 y la subsiguiente vida eterna para las personas se denominó "la ascensión de los nerds" o "creación inteligente de personas con un coeficiente intelectual de 140". Otros cuestionaron el marco de tiempo optimista, la comprensión del cuerpo y el cerebro humanos, recordó la ley de Moore, que aún no ha desaparecido. Por cada experto que cree en las ideas de Kurzweil, hay tres que piensan que está equivocado.
Pero lo más interesante de esto es que la mayoría de los expertos que no están de acuerdo con él, en general, no dicen que esto sea imposible. En lugar de decir "mierda, esto nunca sucederá", dicen algo como "todo esto sucederá si llegamos al ISI, pero este es el problema". Bostrom, uno de los aclamados expertos en inteligencia artificial que advierte sobre los peligros de la inteligencia artificial, también admite:
“Apenas queda ningún problema que la superinteligencia no pueda resolver, o incluso ayudarnos a resolver. Enfermedad, pobreza, destrucción del medio ambiente, sufrimiento de todo tipo: todo esta superinteligencia con la ayuda de la nanotecnología se puede resolver en un momento. La superinteligencia también puede darnos una vida útil ilimitada al detener y revertir el proceso de envejecimiento mediante la nanomedicina o la capacidad de subirnos a la nube. La superinteligencia también puede crear oportunidades para un aumento sin fin de las capacidades intelectuales y emocionales; él puede ayudarnos a crear un mundo en el que viviremos con alegría y comprensión, acercándonos a nuestros ideales y haciendo realidad nuestros sueños.
Sin embargo, esta es una cita de uno de los críticos de Kurzweil, quien admite que todo esto es posible si podemos crear una ASI segura. Kurzweil simplemente definió en qué debería convertirse la superinteligencia artificial, si es posible. Y si es un buen dios.
La crítica más obvia a los defensores de la zona de confort es que pueden estar muy equivocados cuando evalúan el futuro de ISI. En su libro The Singularity, Kurzweil dedicó 20 páginas de 700 posibles amenazas de ISI. La pregunta no es cuándo llegamos a ISI, la pregunta es cuál será su motivación. Kurzweil responde a esta pregunta con cautela: “ISI surge de muchos esfuerzos dispares y estará profundamente integrado en la infraestructura de nuestra civilización. De hecho, estará estrechamente incrustado en nuestro cuerpo y cerebro. Él reflejará nuestros valores porque será uno con nosotros.
Pero si la respuesta es, ¿por qué tanta gente inteligente en este mundo está preocupada por el futuro de la inteligencia artificial? ¿Por qué Stephen Hawking dice que el desarrollo de ISI "podría significar el fin de la raza humana"? Bill Gates dice que "no entiende a las personas que no se preocupan" por eso. Elon Musk teme que estemos "convocando a un demonio". ¿Por qué muchos expertos consideran que ISI es la mayor amenaza para la humanidad?
Hablaremos de esto la próxima vez.