La inteligencia artificial (IA) que se mejora a sí misma en el futuro puede esclavizar o matar a las personas si así lo desea. Así lo dijo el científico Amnon Eden, quien cree que los riesgos del desarrollo de una conciencia de pensamiento libre y altamente inteligente son muy altos, y "si no se ocupan de los problemas del control de la IA ya en la etapa actual de desarrollo, entonces es posible que el mañana simplemente no llegue ". Según la edición inglesa Express, la humanidad, según Amnon Eden, se encuentra hoy en el "punto sin retorno" para la implementación de la trama de la famosa película épica "The Terminator".
Vale la pena señalar que el Dr. Amnon Eden es un líder de proyecto cuyo objetivo principal es analizar los posibles efectos devastadores de la IA. Sin una comprensión correcta de las consecuencias de la creación de inteligencia artificial, su desarrollo puede amenazar con el desastre, cree el científico. Actualmente, nuestra sociedad está poco informada sobre el debate que se está produciendo en la comunidad científica sobre el análisis del impacto potencial de la IA. “En el próximo 2016, el análisis de posibles riesgos tendrá que generalizarse significativamente en el pensamiento de las corporaciones y los gobiernos, los políticos y los responsables de la toma de decisiones”, dice Eden.
El científico está seguro de que la ciencia ficción, que describe la destrucción de la humanidad por parte de los robots, pronto puede convertirse en nuestro problema común, ya que el proceso de creación de la IA se ha salido de control. Por ejemplo, Elon Musk, con el apoyo del empresario Sam Altman, decidió crear una nueva organización sin fines de lucro de mil millones de dólares que desarrolla inteligencia artificial de código abierto que debería superar la mente humana. Al mismo tiempo, el propio multimillonario estadounidense Elon Musk clasifica a la inteligencia artificial entre las "mayores amenazas para nuestra existencia". Steve Wozniak, cofundador de Apple, dijo en marzo pasado que “el futuro parece abrumador y muy peligroso para la gente … con el tiempo llegará el día en que las computadoras pensarán más rápido que nosotros y se deshacerán de las personas lentas para poder para que las empresas puedan trabajar de manera más eficiente ".
Vale la pena señalar que muchos científicos ven la amenaza de la IA. Decenas de reconocidos científicos, inversores y emprendedores, cuyas actividades están, de una forma u otra, relacionadas con el desarrollo de la inteligencia artificial, han firmado una carta abierta pidiendo más atención al tema de la seguridad y utilidad social del trabajo en el campo de la IA. El astrofísico Stephen Hawking y el fundador de Tesla y SpaceX Elon Musk se encuentran entre los firmantes de este documento. La carta, junto con un documento adjunto, redactado por el Future of Life Institute (FLI), se escribió en medio de una creciente preocupación por el impacto de la inteligencia artificial en el mercado laboral e incluso la supervivencia a largo plazo de toda la humanidad en un entorno en el que las capacidades de los robots y las máquinas crecerán de forma casi incontrolable.
Los científicos comprenden el hecho de que el potencial de la IA hoy en día es muy grande, por lo que es necesario investigar a fondo las posibilidades de su uso óptimo para nosotros a fin de evitar las trampas que la acompañan, señala la carta de FLI. Es imperativo que los sistemas de inteligencia artificial creados por humanos hagan exactamente lo que queremos que hagan. Cabe señalar que el Future of Life Institute fue fundado el año pasado por varios entusiastas, entre los que se encontraba el creador de Skype, Jaan Tallinn, con el fin de "minimizar los riesgos que enfrenta la humanidad" y estimular la investigación con una "visión optimista". del futuro". En primer lugar, estamos hablando aquí de los riesgos que provoca el desarrollo de la IA y la robótica. La Junta Asesora de FLI incluye a Musk y Hawking, junto con el aclamado actor Morgan Freeman y otras personas famosas. Según Elon Musk, el desarrollo incontrolado de inteligencia artificial es potencialmente más peligroso que las armas nucleares.
El famoso astrofísico británico Stephen Hawking a finales de 2015 intentó explicar su rechazo a las tecnologías de IA. En su opinión, con el tiempo, las máquinas superinteligentes verán a las personas como consumibles u hormigas que simplemente interfieren con la solución de sus tareas. Hablando con los usuarios del portal Reddit, Stephen Hawking señaló que no cree que tales máquinas superinteligentes sean "criaturas malvadas" que quieren destruir a toda la humanidad debido a su superioridad intelectual. Lo más probable es que se pueda hablar del hecho de que simplemente no notarán la humanidad.
“Los medios de comunicación han estado distorsionando constantemente mis palabras últimamente. El principal riesgo en el desarrollo de la IA no es la malicia de las máquinas, sino su competencia. La inteligencia artificial superinteligente hará un excelente trabajo, pero si ella y nuestros objetivos no coinciden, la humanidad tendrá problemas muy serios”, explica el célebre científico. Como ejemplo, Hawking citó una situación hipotética en la que una IA superpoderosa es responsable de la operación o construcción de una nueva presa hidroeléctrica. Para tal máquina, la prioridad será cuánta energía generará el sistema encomendado, y el destino de las personas no importará. “Somos pocos los que pisoteamos hormigueros y pisamos hormigas por enojo, pero imaginemos una situación: controlas una poderosa central hidroeléctrica que genera electricidad. Si necesita elevar el nivel del agua y, como resultado de sus acciones, se inundará un hormiguero, es poco probable que los problemas de los insectos que se ahogan lo molesten. No pongamos a la gente en el lugar de las hormigas”, dijo el científico.
El segundo problema potencial para un mayor desarrollo de la inteligencia artificial, según Hawking, puede ser la "tiranía de los propietarios de máquinas": el rápido crecimiento de la brecha en el nivel de ingresos entre los ricos que podrán monopolizar la producción. de máquinas inteligentes y el resto de la población mundial. Stephen Hawking propone resolver estos posibles problemas de la siguiente manera: ralentizar el proceso de desarrollo de la IA y cambiar al desarrollo de una inteligencia artificial no "universal", sino altamente especializada, que puede resolver solo una gama muy limitada de problemas.
Además de Hawking y Musk, la carta fue firmada por el premio Nobel y profesor de física del MIT Frank Wilczek, el director ejecutivo del Instituto de Investigación de Inteligencia Artificial (MIRI) Luc Mühlhauser, así como por muchos especialistas de grandes empresas de TI: Google, Microsoft. e IBM, así como los empresarios que fundaron las empresas de inteligencia artificial Vicarious y DeepMind. Los autores de la carta señalan que no pretenden asustar al público, sino que planean resaltar tanto los aspectos positivos como negativos que se asocian con la creación de inteligencia artificial. "En la actualidad, todo el mundo está de acuerdo en que la investigación en el campo de la IA está progresando de manera constante, y la influencia de la IA en la sociedad humana moderna solo aumentará", dice la carta, "las oportunidades que se abren a los humanos son enormes, todo lo que la civilización moderna tiene que ofrecer fue creado por la inteligencia.persona. No podemos predecir lo que seremos capaces de lograr si la inteligencia humana puede ser multiplicada por la IA, pero el problema de deshacerse de la pobreza y la enfermedad ya no es infinitamente difícil”.
Numerosos desarrollos en el campo de la inteligencia artificial ya están incluidos en la vida moderna, incluidos los sistemas de reconocimiento de imagen y voz, vehículos no tripulados y mucho más. Los observadores de Silicon Valley estiman que actualmente se están implementando más de 150 startups en esta área. Al mismo tiempo, los desarrollos en esta área están atrayendo cada vez más inversiones, y cada vez más empresas como Google están desarrollando sus proyectos basados en IA. Por lo tanto, los autores de la carta creen que ha llegado el momento de prestar mayor atención a todas las posibles consecuencias del boom observado para los aspectos económicos, sociales y legales de la vida humana.
La posición de que la inteligencia artificial puede representar un peligro para los humanos es compartida por Nick Bostrom, profesor de la Universidad de Oxford, conocido por su trabajo sobre el principio antrópico. Este especialista cree que la IA ha llegado al punto en que le seguirá su incompatibilidad con los humanos. Nick Bostrom enfatiza que, a diferencia de la ingeniería genética y el cambio climático, para los cuales los gobiernos están asignando fondos suficientes para controlar, "no se está haciendo nada para controlar la evolución de la IA". Según el profesor, en la actualidad se sigue una "política de vacío legal que hay que llenar" en materia de inteligencia artificial. Incluso tecnologías como los automóviles autónomos, que parecen inofensivas y útiles, plantean una serie de preguntas. Por ejemplo, ¿un automóvil de este tipo debería tener que realizar un frenado de emergencia para salvar a sus pasajeros y quién será responsable en caso de un accidente cometido por un vehículo no tripulado?
Al discutir los riesgos potenciales, Nick Bostrom señaló que "la computadora no es capaz de determinar los beneficios y daños a los humanos" y "ni siquiera tiene la más mínima idea de la moralidad humana". Además, los ciclos de superación personal en las computadoras pueden ocurrir a una velocidad tal que una persona simplemente no puede hacer un seguimiento, y tampoco se puede hacer casi nada al respecto, dice el científico. "En la etapa de desarrollo, cuando las computadoras pueden pensar por sí mismas, nadie puede predecir con certeza si esto conducirá al caos o mejorará significativamente nuestro mundo", dijo Nick Bostrom, citando como ejemplo una solución simple y posible para una computadora: apagarse en países con clima frío calefacción para mejorar la salud de las personas y aumentar su resistencia, lo que "puede llegar a la cabeza de la inteligencia artificial".
Además, Bostrom también plantea el problema de picar el cerebro humano para aumentar nuestra biointeligencia. “En muchos sentidos, un procedimiento de este tipo puede ser útil si se controlan todos los procesos, pero ¿qué sucede si el chip implantado puede reprogramarse a sí mismo? ¿A qué consecuencias puede llevar esto, al surgimiento de un superhombre o al surgimiento de una computadora que solo se verá como un humano? " - pregunta el profesor. La forma en que las computadoras resuelven los problemas humanos es muy diferente a la nuestra. Por ejemplo, en el ajedrez, el cerebro humano considera solo un conjunto reducido de movimientos, eligiendo la mejor opción entre ellos. A su vez, la computadora considera todos los movimientos posibles, eligiendo el mejor. Al mismo tiempo, la computadora no espera molestar o sorprender a su oponente en el juego. A diferencia de un ser humano que juega al ajedrez, una computadora puede realizar un movimiento astuto y sutil solo por accidente. La inteligencia artificial puede calcular de la mejor manera: para eliminar el error de cualquier sistema eliminando el "factor humano" de allí, pero, a diferencia de un humano, un robot no está listo para realizar hazañas que salvarían la vida de las personas.
Entre otras cosas, el aumento del número de máquinas inteligentes representa la etapa de una nueva revolución industrial. A su vez, esto significa que en un futuro cercano, la humanidad enfrentará inevitables cambios sociales. Con el tiempo, el trabajo se convertirá en una gran cantidad de especialistas altamente calificados, ya que casi todas las tareas simples pueden ser realizadas por robots y otros mecanismos. Los científicos creen que la inteligencia artificial "necesita ojo y ojo" para que nuestro planeta no se convierta en un planeta de dibujos animados "Zhelezyaka", que estaba habitado por robots.
En términos de una mayor automatización de los procesos de producción, el futuro ya ha llegado. El Foro Económico Mundial (WEF) presentó su informe, según el cual la automatización conducirá a que en 2020 más de 5 millones de personas que trabajan en diversos campos perderán su empleo. Este es el impacto de los robots y los sistemas robóticos en nuestras vidas. Para compilar el informe, los empleados de WEF utilizaron datos sobre 13,5 millones de empleados de todo el mundo. Según ellos, para 2020, la necesidad total de más de 7 millones de puestos de trabajo desaparecerá, mientras que el crecimiento esperado del empleo en otras industrias ascenderá a poco más de 2 millones de puestos de trabajo.