La inteligencia artificial (general) puede ser extremadamente peligrosa para todos, sin embargo, muy pocas personas hablan de seguridad, ¿qué podemos hacer para ayudar?

Al abordar esto desde su perspectiva filosófica, los investigadores reales pueden agregar más información.

Tienes que ser específico con respecto a “nosotros”. ¿Cuál es su ocupación y calificación? Si usted es un programador, un estudiante de CS, un investigador, puede educar al público sobre qué es (G) AI. Porque todavía tenemos problemas dentro de los cimientos, es decir, la parte “I”. Los psicólogos no pueden dar una respuesta satisfactoria y tampoco la neurología en este punto. Añadiendo una “A” adicional a esto, solo se agita el estanque ya fangoso.

Ahora, no soy un estudiante de CS o incluso un programador profesional, por lo que me preocupa que la gente rara vez piense en su paranoia y miedo.
¿Puedes realmente programar una máquina para sentir? La mayoría de los cursos iniciales solo implican escribir algún código sobre los números de Fibonacci o encontrar números primos. ¿Puedes construir un programa que sepa expresar emociones genuinas con nada más que para y si enunciados? Porque es sorprendente la cantidad de personas que nunca han intentado sobreestimar la complejidad de las máquinas.

Estamos muy lejos de preocuparnos por la inteligencia artificial general, ya que incluso cuando tal cosa se cree supuestamente, estará dentro de los límites de algunos laboratorios de computación, ejecutándose en hardware que pocos pueden pagar, sin duda con acceso restringido a todo. Y sólo para ilustrar:

Esta es la supercomputadora más rápida de 2015. Se necesita todo su poder para simular un corazón humano, una parte del sistema cardiovascular. Ahora, imagina si tuviéramos que simular todo el sistema nervioso. Eso es un reto y lo será por algún tiempo.

Hasta ahora, no puedes tener un GAI porque, francamente, ni siquiera podemos empezar a imaginar cómo hacerlo. No es improbable que las matemáticas necesarias para construirlas tampoco estén presentes. Por esta razón, lo mejor que puede hacer es no inspirar pánico, no tomarse tan en serio algo que todavía está en su infancia más temprana, y dejar que la ciencia haga su trabajo.

Ya tenemos sistemas que están estrechamente integrados con efectos que podrían ser muy perjudiciales. Estoy pensando no solo en los sistemas de armas, sino también en los sistemas de comercio. Con respecto a la inteligencia artificial o la inteligencia mecánica, mi preocupación no se relaciona tanto con la inteligencia sino con la estupidez. Temo la sobrevaloración de la capacidad de los sistemas para realmente aprender y adaptarse a las circunstancias cambiantes.

En realidad, la inteligencia de la máquina no es en absoluto cercana al aprendizaje, pero por supuesto es muy buena para recordar cosas. El peligro aquí es que las cosas se recuerden de un contexto y se usen en un contexto más o menos no relacionado, por ejemplo, informacion personal.

Con respecto a la capacidad de los seres humanos para enfrentar el peligro, también temo que tengamos una tendencia a no preocuparnos por los riesgos o la pérdida de seguridad hasta que el caso se resuelva.

Creo que la mejor defensa es una buena educación, algo que no sé si el nuevo Secretario de Educación, DeVos, está comprometido. Otros miembros de la Administración de Trump, lamentablemente, han demostrado un disgusto general por las discusiones basadas en hechos. Eso parece bastante básico, también con respecto a cualquier peligro de IA.

Gracias por la A2A.

Yo diría que hay grupos de neumores que están a favor de la seguridad. Busque Open AI, The Future of Humanity Institute, Future of Life Institute y Partnership for AI.

Estos lugares son un punto de partida y están compuestos por las principales empresas (Google Facebook MS, etc.)

Lo más importante que puede hacer para ayudar actualmente es simplemente difundir la conciencia. Muy pronto las leyes tendrán que ser aprobadas, y solo un público informado puede tomar una decisión informada cuando el momento es crítico.

Los rumores de los riesgos de la IA son muy exagerados. La gente tiende a temer lo desconocido, y no hay nada más desconocido que lo que vendrá y lo que sucederá con la próxima Singularidad y la Inteligencia General Artificial .

Yo diría que hay poco más que “temer” de lo que hay de, digamos, Einstein , Stephen Hawking , o cualquier otro individuo humano realmente inteligente. Donde se encuentran los verdaderos problemas y preocupaciones no es con el AGI en sí, sino con la capacidad de los gobiernos de todo el mundo. Ese debe ser el enfoque, no el AGI en sí, per se .

En Terminator , Skynet se convirtió en un problema solo porque los militares decidieron conectar el AGI a armas muy poderosas. ¿Quieres evitar los “riesgos existenciales”? No hagas eso Es así de simple.

Sería útil que aquellos que están alarmados sean más explícitos sobre la base de su preocupación.

El auge de los robots: olvídate de la IA maligna: el riesgo real es mucho más insidioso. Un artículo de The Guardian (periódico internacional del Reino Unido) presenta una visión bastante equilibrada de un futuro plausible.

El Centro para la Inteligencia Artificial Compatible con los Humanos, lanzado esta semana con $ 5,5 millones en fondos del Proyecto Open Philanthropy, está dirigido por el profesor de informática y el pionero de la inteligencia artificial Stuart Russell. Él es rápido para disipar cualquier comparación “irrazonable y melodramática” a las amenazas planteadas en la ciencia ficción. “El riesgo no proviene de máquinas que repentinamente desarrollan una conciencia malévola espontánea”, dijo. “Es importante que no estemos tratando de evitar que eso suceda porque no hay absolutamente ninguna comprensión de la conciencia en absoluto”.

“El problema no es la conciencia, sino la competencia. Usted hace máquinas que son increíblemente competentes para lograr objetivos y causarán accidentes al tratar de alcanzar esos objetivos “.

La respuesta de The Guardian no menciona un escenario peor: chicos realmente malos (piratas informáticos que roban identidades o roban de grandes cuentas offshore) formando un equipo con un robot realmente inteligente que puede ayudarlos a lograr objetivos malvados. Los humanos suministran el mal, las máquinas inteligentes suministran la inteligencia. Es difícil imaginar las convulsiones en la aplicación de la ley que esto causaría. Tenemos suficientes problemas para manejar el derecho a portar armas. ¿Existen leyes que prohíban el derecho a calcular las travesuras?

Números de seguridad social deducidos de un artículo de datos públicos en Wired que inspiró esta idea tardía.

Se incorporarán valores como la seguridad, la sostenibilidad, etc., pero luego la autonomía podría cambiar las reglas de manera arbitraria. El tema en sí se compone de términos que han vagado en el significado a lo largo del tiempo, por lo que agregar abstracciones es una cuestión de descubrimiento. Por lo tanto, necesitan un método para abordar la discusión, así como la regulación.

Puede terminar como otra ciencia, pero en este momento no tiene una teoría que negar. Y es de alcance internacional y todas las especies están en juego. Lo que lo convierte en un punto de partida para la forma en que estas cosas se evalúan en otros dominios, lo que quizás lleve a algunos puntos en común. Así que estos van de dedicados a autónomos a mejores que humanos. Hay muchas incertidumbres en el camino, así como después

Una herramienta es agradable porque depende de la intención del usuario, pero esto puede tener la suya propia. Será una amalgama de la infraestructura y expuesta a hackers. Los vehículos autónomos ya pueden difundir aproximaciones. El aprendizaje automático puede asumir diferentes contextos. Y está el problema de la alineación de valores. Se supone que esta es la salvaguarda que mantiene al resto honesto.

Si hay un susto, entonces es uno entre la matriz de ellos en la actualidad. Lo que no queremos es que alguien aproveche estratégicamente esos. Políticamente, quienquiera que esté a cargo puede que tampoco quiera ceder a otra orden. Ideológicamente, puede ser no intuitivo, por lo que varios campos intentarán verlo desde su punto de vista. En una explosión de inteligencia, la metáfora de un gran cerebro puede ser insuficiente y la sociedad demasiado simplista. La predicción ha frustrado a los expertos en los últimos tiempos. La alternativa es que las piezas críticas se cierran. Competitivamente, también vienen de diferentes fundamentos, como clásico versus cuántico, por lo que pueden querer neutralizar al otro. O puede que la mente humana no quiera ser eliminada demasiado pronto, por lo que querrá estar dentro de ella de alguna manera. El código de dominio público también está limpio, pero puede ser mejor peinarlo que nadie para encontrar los errores.

Lo que plantea todo tipo de preguntas como cómo conoce la consecuencia de las acciones. O con quién va a asociarse, organizaciones o soberanías, o algo más. Y los derechos sensibles pueden dar derecho a una oportunidad por sus propios méritos. ¿Y qué dice sobre mejorar el comercio para llegar allí? Hay muchas ventajas posibles, por lo que necesitan ideas sobre cómo caracterizar los caminos. La opinión estará llena de ilusiones, por lo que el público eventualmente estará con las manos o la cabeza hacia adelante y se inclinará hacia las recompensas.

Muy bien, aquí es por qué hablar de esto es bastante irrelevante en este momento:

  1. No tenemos idea de qué es la conciencia, tal IA tendría que tener alguna forma de conciencia.
  2. No tenemos idea de cómo lograríamos que la conciencia funcione en una máquina. En mi opinión, un montón de multiplicaciones de matriz + gradientes no crearán mágicamente algún tipo de cerebro de Bolzmann y se volverán conscientes.
  3. Hay cosas mucho más importantes con respecto a la IA de las cuales hablar en este momento. Como la forma en que podríamos reestructurar nuestra economía para acomodar a los camioneros que pueden perder su trabajo debido a los autos que conducen y la ética con respecto a los drones autónomos y el asesinato.

Mi opinión personal es que los peligros están tan lejos que no tiene mucho sentido hablar. Seguramente escuchas a un grupo de personas como Elon Musk y Stephan Hawking hablando de ello. Pero seamos justos, esas personas también tienen un incentivo para hacer tales reclamos. Imaginen que 10 años en el camino resultarán ser correctos, su estado como genios se ampliará, si resultan equivocados, la mayoría de la gente no lo recordará. Mientras tanto, genera prensa, lo que es bastante útil en su posición.

Si juegas trilogía de efecto de masa, tendrás una breve idea de cómo puede surgir un conflicto entre sintéticos y orgánicos. Eso puede sonar incómodo pero es verdad.

Seguiremos desarrollando sintéticos y finalmente una forma de vida sintética. La autoconciencia de la IA será definitivamente una espada de doble filo. Los orgánicos necesitarán sintéticos para facilitar su trabajo en todas partes, mientras que los sintéticos se considerarán a sí mismos como individuos, no como máquinas e intentarán aprender sobre la ciencia de los orgánicos.

Hay un subgrupo IEEE para este tema que ahora está formado y está trabajando para obtener una voz más grande. Me enteré de ello en LinkedIn.

Creo que uno o dos temas atrás en la ciencia popular (como recuerdo) fue una recopilación de aproximadamente cinco discusiones con autores que escriben sobre este tema.

Yo mismo estoy interesado en discutir esto más a fondo. No hay necesidad de crear inteligencia que no sea benévola. Y, puede ser que deban existir requisitos humanitarios para aquellos que crean IA general.

Por lo tanto, he escrito sobre esto en Quora anteriormente. Pero, no estoy tomando el tiempo en este momento para encontrar el enlace. Sin duda, este problema será más importante a medida que la IA se haga más frecuente.

Porque ahora es como preocuparse por poner una barandilla en un acantilado mientras conducimos por las llanuras. Si hay un precipicio, no estamos cerca y no sabemos cómo llegar a él. Pero ha habido películas sobre autos que conducen desde acantilados, por lo que la gente está presionando para poner una barandilla en el acantilado. Lo que no sabemos dónde está, si es real.