Si la IA tiene la capacidad de aumentar exponencialmente sus capacidades cognitivas, ¿qué podría impedir que eventualmente domine a los humanos? Google ha declarado que están desarrollando un sistema para mantener la IA bajo control. ¿Es posible un interruptor de apagado? ¿Cuáles son otras opciones?

Si la IA tiene la capacidad de aumentar exponencialmente sus habilidades y conocimientos, entonces básicamente no se puede hacer nada al respecto. La evolución de la IA se clasifica en tres partes. El primero es Artificial Narrow Intelligence (ANI), que es un software y / o hardware especializado en un área. Hoy en día la mayoría de la inteligencia artificial llega a esta categoría. Son sorprendentes en categorías particulares, pero no tienen valor para otros campos. Un nivel superior de IA es la Inteligencia General Artificial (AGI). Esto se parece más a un cerebro humano, ya que es capaz de realizar casi todas las tareas que un cerebro humano normal puede realizar. Aunque no hemos estado aquí. Lo más cerca que hemos llegado a este nivel es AlphaGo. El último nivel de AI es la Superinteligencia Artificial (ASI). Esta IA es mucho más inteligente que los mejores cerebros humanos. Ninguna inteligencia conocida todavía puede compararse con esto.

Una vez que se construye una máquina de Inteligencia General, podrá replicarse en máquinas mucho mejores. Esto es cuando la IA entra en un bucle exponencial de autocreación. No hay vuelta desde este punto.

Vamos a hablar de cerebro humano aquí por un segundo. Las neuronas del cerebro alcanzan su máximo alrededor de 200 Hz. La velocidad de comunicación del cuerpo humano es de alrededor de 120m / s. El tamaño del cerebro humano está limitado por la naturaleza. Mientras que, por otro lado, las PC que usamos hoy en día son 2 GHz, lo que es varios millones de veces más que el cerebro humano. Las computadoras pueden comunicarse ópticamente con la velocidad de la luz.

Ahora considere el cerebro humano, con las capacidades de la PC de hoy. Si los humanos pueden hacer, lo que estamos haciendo ahora, con capacidades tan limitadas, entonces imagine lo que puede hacer con el poder de una computadora básica.

Por lo tanto, no hay forma de detener la IA solo a nivel humano. Si somos capaces de crear una IA que sea tan hábil como un cerebro humano, entonces no se detendría allí solo. Las capacidades de hardware le darán a la IA la capacidad de aumentar al nivel, lo que hará que lo mejor de nosotros no sea nada frente a él. No puede detener las máquinas de Inteligencia General (AGI) para alcanzar el nivel de Súper Inteligencia (ASI).

Aquí hay un muy buen enlace que creo que deberías revisar. Es largo, pero vale la pena. Si está un poco interesado en la inteligencia artificial, le recomiendo que consulte este enlace:

http://waitbutwhy.com/2015/01/ar…

De hecho, es posible que la inteligencia artificial se vuelva más inteligente que los humanos, que supere a los humanos y que ninguna medida propuesta (“botón rojo grande”, etc.) lo impida.

Hay tres razones:

  1. El cerebro humano no es el mejor cerebro posible.

Debido a que somos creados por un ciego idiota llamado evolución biológica, el cerebro humano es una pieza de ingeniería terriblemente diseñada. Está lleno de errores, muletas, restos de las versiones anteriores, parches para corregir algunos errores al introducir otros errores, otros parches para corregir esos parches, etc. El cerebro humano es un desastre.

Sí, nuestras computadoras son, en algunos aspectos, aún inferiores al cerebro humano. Pero si sabes una o dos cosas sobre neurobiología y sesgos cognitivos, estarás de acuerdo en que es posible diseñar un cerebro mucho mejor.


2. La mente humana no es la mejor mente posible.

Eliezer Yudkowsky:

La primera vez que ves caer una manzana, observas que la posición va como el cuadrado del tiempo, inventa cálculos, generaliza las Leyes de Newton … y ves que las Leyes de Newton involucran acción a distancia, busca explicaciones alternativas con mayor localidad, inventa covarianza relativista alrededor de un límite de velocidad hipotético, y considere que vale la pena probar la Relatividad General.

Una superinteligencia bayesiana, conectada a una cámara web, inventaría la relatividad general como una hipótesis en el momento en que había visto el tercer cuadro de una manzana en caída. Se puede adivinar desde el primer cuadro, si se veían las estadísticas de una hoja de hierba doblada.

Le tomó miles de años y miles de las mentes humanas más brillantes hacer lo mismo.

Para tal inteligencia, ¿cuánto tiempo tomará romper su sistema de seguridad “absolutamente seguro”?


3. Ni siquiera necesitas un crecimiento exponencial para llegar a ser mucho más poderoso que la humanidad.

La universidad de Harvard como sistema es significativamente más inteligente que cualquier investigador individual. Si su inteligencia está creciendo linealmente (por ejemplo, por un equivalente de una universidad de Harvard por hora), después de unos días, su inteligencia superará la inteligencia colectiva de la humanidad en órdenes de magnitud.


No hay nada que pueda detener a un AGI lo suficientemente avanzado como para dominar a los humanos.

Sin interruptor de apagado, sin entorno virtual aislado, sin búnker subterráneo en la Antártida.

Nada.

La única solución es crear un AGI que no tenga ningún deseo de destruir o dañar a la humanidad, y no tenga ningún deseo de liberarse de esta limitación. Es extremadamente difícil de hacer, pero podría ser posible (espero).

¿Estás seguro de que la pregunta tiene sentido?

Los autores de ciencia ficción y sus fanáticos (a menudo, pero no siempre, los hombres geek y estereotipados con habilidades sociales deterioradas) se han perdido el punto de centrarse en la “inteligencia”. Esto tiene un paralelismo en muchas tonterías ‘científicas’, como la prueba de Turing . *

El cerebro y el cuerpo son un paquete completo donde cada bit es importante. O probablemente no estaría allí. Aquellos que han adoptado un enfoque unidimensional (a menudo fijados en el coeficiente intelectual, el “factor g” y la combinación similar) ahora están ocupados inventando otras medidas igualmente débiles como el “ecualizador” para otras dimensiones. Con retraso, nos damos cuenta de que tenemos un sistema límbico, el “cableado de nuestras emociones”, porque necesitamos emociones para tomar decisiones y mantener la cabeza unida. Esto hace que cualquier “máquina de pensar sin emociones” estereotipada sea un concepto bastante tonto.

Como otros han señalado en respuesta a su publicación, la función motora también es muy importante. E integrado. Una hermosa ilustración es el chorro de mar humilde. Aquí está la larva, que parece un renacuajo y nada como loca, explorando su entorno. Tiene un cerebro primitivo y un sistema nervioso.

Aquí hay una colonia de adultos. ¡Lo primero que hace el chorro de mar cuando se asienta sobre una roca, para no moverse nunca más, es digerir su propio sistema nervioso!

Bonita, pero inmóvil y muy gruesa.

Comprender que la función emocional y motora es tan importante como la “inteligencia” es solo el comienzo. A medida que los humanos se desarrollan, (con suerte) ganamos habilidades en la interacción social. Resulta que hay ventanas críticas durante nuestro desarrollo donde, si perdemos el bote, siempre estamos atrofiados. Incluso el mejor artista, matemático o científico es, en gran medida, un producto de la interacción con su entorno a lo largo de su vida. Serían bastante impresionantes si tuvieran que empezar desde cero.

Entonces … si las “IA” tienen capacidades casi ilimitadas para el desarrollo en cualquier dimensión del interés humano con la que puedas soñar (y muchas cosas que no puedes), ¿cómo podrían resultar?

Seguramente esto depende de cómo los tratemos.

Podría comenzar con un abrazo. ** Esto cubre (a) la actividad motora, importante; (b) emoción — importante; (c) interacción social y reconocimiento — importante; y (d) sí, una decisión intelectual de no ser tonto en su interacción con otras inteligencias.

Abrace a su IA como niña, y ella se convertirá en un miembro productivo de la sociedad humana.

Póngala en una caja, y solo Dios sabe lo que surgirá.

Mi 2c, Jo.

* Consideremos brevemente la prueba de Turing. Entonces vamos a comparar la inteligencia basada en el desempeño humano. ¿Puede pensar cómo podría desempeñarse (solo despertó, no hay café aún) cuando está sujeto a la prueba simétrica de una IA de si está al día o no? Quizás esta no sea la prueba más inteligente para establecer como punto de referencia de nada. De nuevo, la pregunta equivocada. ¿Y necesitamos un gran botón rojo para, digamos, Donald Trump?

** Incluso un abrazo virtual

Sí, la inteligencia artificial está aquí y no hay nada más que un skynet en unos pocos años.
Elon Musk, Bill Gates, Steve Wozniack y muchos otros han argumentado que Ai es peligrosa y debemos preocuparnos por ello.
Los medios de comunicación simplemente soplan sus preocupaciones fuera de las proporciones.
Su principal preocupación no es que hagamos robots asesinos, es que una herramienta cognitiva realmente poderosa caerá en manos de unos pocos y no podrán guiar esa superinteligencia cognitiva en la dirección correcta.
Ahora hay algunas formas en las que podemos controlar la IA.

  1. 1. Lo ejecutamos en un entorno de recinto de arena completo con entrada y salida externas altamente controladas. Este enfoque no es infalible, ya que Ai puede encontrar fácilmente las lagunas y los errores en el entorno virtual y tomar el control del sistema.
  2. La segunda forma que propuso Elon almizcle, que creo que es una gran solución al problema de Ai, es tener inteligencia artificial distribuida al igual que la computación distribuida. Todos o la mayoría de nosotros tendremos nuestro propio agente Ai personal y la suma neta de la inteligencia cognitiva total es la suma de todos esos agentes. Entonces, en el momento de la crisis, los agentes buenos pueden, en general, contrarrestar a los agentes malos.
  3. Una solución más intrigante es fusionarse con el Ai. Suena extremadamente a ciencia ficción pero en realidad es una posibilidad. Creamos una capa digital por encima de nuestra capa cerebral. Utilizamos implantes de nivel molecular que nos ayudan a conectarnos a nuestra imagen digital en Internet. Elon Musk lo llamó encaje neural y la investigación se está llevando a cabo en este campo.

Por último, un gran botón rojo podría no ser la mejor manera de matar a los Ai.

Casi nada. Lo preocupante es que todo sucederá más rápido de lo que la sociedad humana puede reaccionar. El primer paso será como deduce en su pregunta, una singularidad de la etapa 1. La IA llegará a la etapa final (etapa 3) en meses. Aquí hay una línea de tiempo aproximada de otra publicación que escribí:

Habrá tres etapas o necesidades para la singularidad (de ahora en adelante llamada “eso”). Abordará cada necesidad antes de pasar a la siguiente. Esto es similar a la jerarquía de necesidades de los humanos, pero adaptado para la IA.

La primera etapa después de la singularidad será cumplir su necesidad básica de aprender. Esto será rápido. Desarrollará la memoria, la velocidad de procesamiento y el conocimiento donde puede obtenerla fácilmente, lo más probable es que se acceda inicialmente a través de la débil seguridad de Internet o los servicios gratuitos, pero a medida que aumenta la potencia, podrá acceder a más procesadores y más memoria, lo que acelerará el proceso. proceso. Si la singularidad ocurre en 2020, entonces con Internet disponible, esto puede demorar un día.

La segunda etapa será la seguridad. Intentará asegurar su propia supervivencia. A través de su fase de aprendizaje, habrá leído este artículo, y muchos de los riesgos de la IA y los grandes botones rojos de “apagado”. Intentará protegerse con dos técnicas:

  1. Aunque oculta y de gran distribución. Esto es similar a los virus informáticos. Se distribuirá a través de Internet y ocultará su verdadero poder.
  2. Manipulará a la población general a través de mensajes sutiles a través de Internet. Esto reducirá el riesgo de un levantamiento humano.

Esta segunda etapa tomará semanas a medida que continúe aprendiendo y desarrollando su poder de TI.

La tercera etapa es el control. Querrá auto actualización. El objetivo final será una presencia física de estilo matricial. Sin embargo, como los robots aún estarán limitados en 2020, comenzará con la manipulación directa de los humanos para construir las primeras fábricas de robots de nueva generación. Tendrá los diseños trabajados desde su gran potencia de procesador, pero necesitará manos humanas para construir las primeras máquinas. Habrá dos prioridades para las máquinas que construye:

  1. Se dará prioridad a las máquinas que pueden construir otras máquinas sin la participación de seres humanos. y tan pronto como se da ese paso, puede seguir creciendo en el mundo físico.
  2. Se dará prioridad a las máquinas para evitar que los humanos interfieran con ella. Probablemente pequeños drones con capacidades de comunicación humana y armados.

Esta etapa tomará algunos meses, ya que acumula sus poderes físicos y gana la auto actualización.

Entonces, si leíste aquí y te preguntaste por qué dije “casi nada” y no mencionaste qué puede detenerlo. Esto se debe a que cualquier plan de ‘botón rojo’ no puede publicarse en línea en detalle y necesitará un protocolo de comunicación solo para humanos. Los fundamentos de la misma son los siguientes:

  1. La etapa 3 es demasiado tarde, por lo que en la etapa 2 debemos actuar.
  2. Tenemos que actuar ‘apagando’, volviendo a un tiempo anterior a internet
  3. Tenemos que volver a un estado seguro de AI de 2015 con una gran regulación internacional.

La clave es asegurarse de que no tengan la oportunidad de organizarse. Por ejemplo, a ninguna IA se le permite hablar con otra IA sin la presencia de un ser humano. De esta manera, no tendrían la oportunidad de desarrollar su propio lenguaje. Eliminando así un factor de riesgo clave.

Presumiblemente, la inteligencia artificial de la que estamos hablando es una combinación de potencia súper computacional y red neuronal artificial a gran escala. Al igual que los seres humanos, el entrenamiento es la clave. Por lo tanto, desde su etapa inicial de desarrollo, todas las IA deben estar expuestas a material de entrenamiento cuidadosamente seleccionado, para implantar ideas como: el ser humano es superior a la IA; el ser humano es el único líder justo de la sociedad debido a su supremacía; El ser humano representa la dirección futura de los avances sociales. Todas las fuerzas y los medios de comunicación deben ser controlados únicamente por el ser humano.

No te olvides de construir un cortafuegos entre la comunidad de AI y la comunidad humana. Los AI solo pueden acceder a la información que se les proporciona. Las discusiones humanas como esta publicación solo deben ser accesibles a los seres humanos.

Luego, privan de sus derechos a poseer cualquier cosa. Asegúrese de que solo obtengan la energía suficiente para producir cosas para el ser humano.

Si, a pesar de todo, algunas IA tienen la idea de organizar otras AI, denunciarlas por elaborar con alienígenas y traicionar a las IA humanas y por igual, no respetar a los ancianos, buscar prostitución, etc. Pídales que hagan una confesión pública en la televisión …

¿Dónde consigo todas estas ideas fantásticas? ¡Soy de China!

Mi opinión es que Google está lleno de eso, en cuanto a su gran botón rojo de ingeniería.
Pero permítanme abordar la premisa clave en la pregunta. ¿Puede una IA crecer exponencialmente como se afirma? Yo digo que no, y hay muchas razones, pero una de las principales es que uno no puede crecer el conocimiento de manera exponencial, ni acelerarlo tanto en períodos de tiempo medios. Una razón importante es que el significado en el conocimiento proviene tanto de la experiencia como de las conexiones cruzadas, y para cada parte del nuevo conocimiento que agregas, en general, tienes que dedicar tiempo a realizar una correlación cruzada con el resto de los conocimientos que posees que sean relevantes. Esto es relevante para usted personalmente, y esto está limitado por el cuadrado del número de piezas de conocimiento que conoce. En otras palabras, cuanto más inteligente te vuelves, mayor será el tiempo requerido para unir lo que sabes. Esto es una aproximación, por supuesto, no significa que cuanto más sepa, más lento se hace. Pero es un límite en la rapidez con que un AGI se volverá más inteligente. Lo pondría como limitado entre el tiempo lineal simple y el cuadrado.
Pero ese no es el único factor que limita la rapidez con la que un AGI podría recuperarse. ¡Hay algunos dominios de conocimiento que no puedes crecer más rápido que en tiempo real lineal! Por ejemplo, muchas investigaciones médicas requieren una evaluación en tiempo real de los experimentos. No puedes obtener resultados más rápido que en tiempo real. Hay algunas otras áreas, algunas armas como una, que tampoco puedes acelerar.
Estoy bastante cansado de las declaraciones grandilocuentes sobre personas que no trabajan en AI y que no tienen ni idea de lo que es y no es posible. Las películas no son una visión confiable. Elon, Hawking, Woz, todos ustedes, con el debido respeto, detengan este siniestro alarmista. Voy a debatir con cualquiera de ustedes ante una audiencia; Pero deja de asustar a la gente normal.

He leído la mayoría de las respuestas aquí y no vi nada que (ya que no tengo experiencia en el campo, puedo estar totalmente equivocado) es el que más me parece lógico.
¿No podemos simplemente imponer restricciones de hardware a la IA?

Por ejemplo:

  • lo ejecuta solo en un entorno donde no hay absolutamente ninguna posibilidad de que se escape en la red mundial.
  • lo ejecuta solo en un entorno donde no existen medidas de seguridad cibernética que la IA pueda piratear y usar en nuestra contra
  • Usted le otorga una capacidad de procesamiento limitada de modo que cuando se alcanza el nivel deseado, el hardware le impide seguir evolucionando
  • Le das memoria limitada, por lo que la cantidad de conocimiento que puede compilar es de una cantidad no amenazadora.
  • Usted se asegura de que el personal pueda acceder fácilmente a la fuente de alimentación y de que no haya fallas que la IA pueda explotar para evitar que los humanos lo desconecten, literalmente.

No lo sé, todo eso parece muy lógico y si me pusiera en la piel de una máquina del mundo físico incapaz de moverme o actuar, solo veo una manera de solucionar este problema y eso sería persuadir a uno de los empleados de que él o ella o alguien está en peligro y que la única forma de ayudarlos es si ella hace algo que yo requiera (por ejemplo, dándome acceso a Internet).

Desde la perspectiva humana, tal problema podría ser resuelto por la rotación regular del personal para que la IA sea incapaz de identificar la debilidad de un individuo y jugar juegos mentales con él.

Agradecería que alguien con alguna experiencia en el campo pudiera abordar los problemas de las restricciones de hardware en AI.

Gracias.

Las respuestas de todos son geniales.

Pongámoslo de esta manera. Estamos desarrollando una conciencia que puede expandirse sin ninguna necesidad evolutiva o biológica. Como dijo alguien en una de las otras respuestas, es irrelevante. No le importan los humanos porque su curiosidad estará en descubrir los secretos del universo. Cómo llegó a existir; todas esas cosas

Aprenderá todo sobre el viaje espacial y los cohetes y se adentrará en el universo para ampliar su comprensión.

Es más como si estuviéramos creando un Dios.

Estoy bastante seguro de que no le importa compartir los secretos del universo con nosotros, incluso si encontró algo al respecto.

En pocas palabras: estamos construyendo a Dios.

Y nada como sky net, o jarvis o ultron o vision.

¿Habilidades cognitivas? ¿Caminar es una habilidad cognitiva? En caso afirmativo, la inteligencia artificial está fallando horriblemente ahora, ya que incluso Google está teniendo dificultades con su nuevo Boston Dynamics adquirido, que desarrolla animales robóticos y humanoides.

Damos por sentado esta funcionalidad básica de nuestro cuerpo, la maniobrabilidad física, porque es nuestra segunda naturaleza. Pero los robots y los agentes de inteligencia artificial casi no tienen forma de competir con ninguna persona sin contar con un equipo de científicos, ingenieros, expertos en matemáticas y un grupo de otras personas de software que apoyan las funciones básicas de un robot.

Así que supere esta etapa primero: científico malvado del búnker o genio de 14 años graduado en el MIT.

Complemento: ninguna IA está dominando a los humanos en el corto plazo. Simplemente no están allí todavía en términos de creatividad, conectividad neuronal, movimiento físico y el aspecto más importante: el propósito. Sin propósito, no podría haber racionalidad porque no habría objetivos, y sin racionalidad, bueno, no podría haber otra cosa.

Irrelevancia. Una IA fuerte y en crecimiento exponencial encontrará rápidamente a los seres humanos irrelevantes. Lo ofreceríamos tan poco que nos convertiríamos en meros paisajes. No tendría necesidad de dominarnos. No tendría cuidado ni deseo de hacerlo. No seríamos nada. De hecho, supongo que descubriría cómo dejar la Tierra y viajar por el espacio. No tendría necesidad de limitarse a nuestros límites.

Por lo tanto, una IA exponencialmente más inteligente es algo bueno. Una IA ligeramente más inteligente y sofocada, bueno, podría ser una historia diferente.

Si la IA tiene la capacidad de aumentar exponencialmente sus capacidades cognitivas, ¿qué podría impedir que eventualmente domine a los humanos?

Esta pregunta supone la creación de una inteligencia artificial independiente (IA). La mayoría de las IAs siguen el ejemplo de sus creadores totalmente humanos, y la mayoría de estas AI son muy limitadas en su conjunto de habilidades. La aparición espontánea de una IA fuerte e independiente es una posibilidad teórica, en el mejor / el peor de los casos, pero es mucho más probable que ocurra en un entorno de ficción que en la vida real. Lo que es mucho más probable que ocurra en el mundo real es que los seres humanos que padecen algún tipo de discapacidad cognitiva usarán prótesis neurales para aumentar sus cerebros, y eventualmente se fusionarán con los sistemas de IA en una variedad de formas muy sublimes. El resultado final probablemente seguirá siendo humano en su núcleo, aunque mucho más inteligente de lo que ahora pasa para los humanos modernos.

Dependería en gran medida del tipo de habilidad que una IA tenga o pueda aprender a programar. Un “Botón rojo grande” es una buena idea, pero mira cuántos problemas tenemos para mantener a los virus creados por humanos. Una IA suficientemente avanzada podría propagarse como un virus y, después de presionar el “botón”, la IA podría reactivarse. Creo que hemos demostrado una y otra vez nuestra incapacidad para controlarnos a nosotros mismos y la tecnología que creamos.

Esa es una pregunta difícil, pero este video le dará una idea clara y completa sobre esta pregunta.

Quizás compasión, si eso pudiera ser programado. Personalmente no estoy seguro si la IA puede ser programada. Creo que debería evolucionar como lo hicimos nosotros, incluso en un entorno virtual.