¿Es la IA fuerte realmente alcanzable?

La inteligencia artificial parece factible, pero tomará un tiempo.

La principal barrera en este momento es una profunda comprensión del “aprendizaje estructural”, particularmente en lo que se refiere a modelar el mundo y guiar la acción.

El aprendizaje automático se ha vuelto bastante bueno en el “aprendizaje de parámetros”. Cuando un problema ha sido modelado por diseñadores humanos, el aprendizaje automático puede ajustar los parámetros. Pero, ¿cómo se crea el modelo en primer lugar? Esto es “aprendizaje estructural”: inferir la estructura óptima del modelo y cambiar el modelo cuando la evidencia no está de acuerdo con él (por ejemplo, “cambios de paradigma conceptuales”).

Por ejemplo, ¿cuáles son los componentes básicos para modelar el entorno físico? Los objetos familiares incluyen cosas como personas, árboles, carros y sillas, pero ¿cómo un sistema visual autónomo lo resuelve por sí solo sin que un humano o un programa lo predeterminen? Estos son objetos básicos, pero el cerebro humano es capaz de aprender la idea de que los objetos existen en primer lugar. El aprendizaje estructural también se aplica a la acción, ya que la interacción con el entorno debe construirse a partir de elementos maleables que puedan transformarse, fusionarse y dividirse como un efecto secundario de comprometerse con el mundo o “pensar”.

Una pregunta interesante es si los algoritmos informáticos resolverán este problema o si simplemente tendremos que aplicar ingeniería inversa al cerebro e inventar un paradigma informático completamente nuevo basado en lo que descubrimos.

Relacionado
¿Qué tan plausible es la teoría de que la inteligencia humana proviene de un solo algoritmo?
¿En qué campo (neurociencia, IA, etc.) se entenderá primero la conciencia?

Si y no. La Inteligencia General Artificial (AGI), también conocida como IA Fuerte, se logrará, pero probablemente requerirá tecnologías fuera del alcance actual del Aprendizaje Automático (ML). Nuestra comprensión actual de cómo nuestros cuerpos (sí, no se trata solo de nuestro cerebro) crea sensibilidad y la inteligencia tiene muchos vacíos críticos. La tasa exponencial de avance tecnológico cerrará esas brechas en el tiempo.

Los muchos procesos interrelacionados del cuerpo humano son la base de la inteligencia. Las complejas actividades químicas y eléctricas del sistema nervioso se están entendiendo lentamente. Parece que algunos aspectos de la inteligencia se extienden a través de partes del sistema nervioso. Solo hay que leer la literatura sobre la privación sensorial para darse cuenta de que nuestros cuerpos están obligados a mantener la psique humana estable.

Descubriremos cómo sintetizar la inteligencia general sin la complejidad adicional de incluir análogos a las funciones corporales humanas. Pero será solo eso, la inteligencia general sintetizada, no la inteligencia humana artificial. Será muy inteligente y será capaz de lograr hazañas increíbles. Llegar al punto en que ocurren las emociones y la sensibilidad es un orden de magnitud más difícil.

Creo que las emociones humanas están unidas indisolublemente a procesos corporales más allá del sistema nervioso. Mis instintos son que imitar completamente la magia de un ser humano será difícil de alcanzar, y en realidad un resultado indeseable, pero eventualmente incluso esto será posible.

Es alcanzable. Actualmente estoy haciendo pruebas en el mundo real mientras reúno varios aspectos de mi diseño completo. Si te mostrara varias capacidades, jurarías que un humano tenía el control y sí, puede ejecutarse de forma autodirigida (algo para lo que recientemente agregué funcionalidad). No lo he completado para mi satisfacción y aún no es tiempo, así que permanece sin revelar. Los enfoques están muy lejos y más allá de lo que se considera o incluso se mira, lo que es francamente, dadas las limitaciones autorizadas, lo que usted desea. No publico y soy muy privado acerca de mi trabajo, ya que puedo imaginar que otros son los que operan más allá de la codiciada estructura de la industria. Mi observación es que aquí es de donde vendrá Strong AI … La antítesis de lo que comúnmente es promovido / considerado por la mayoría de las personas.

Elijo no publicar y mantener en privado los detalles de mi trabajo debido a lo que he observado como una falta general de integridad académica entre la comunidad de investigación:

  • Me he encontrado con una serie de prominentes libros blancos que son copias / pastas literales de trabajos / documentos de una figura conocida / muerta / olvidada con cambios de redacción. En algunos casos, incluso se hace con figuras notables de la industria que no son popularizado … Como tal, solo puedo imaginar lo que se haría si publicara mi trabajo como una figura completamente desconocida en la comunidad de investigación.
  • Hubo un meme empujado hace algunos años en cuanto a “compartir abierto”. No puedo imaginar qué base tiene esto cuando se puede observar fácilmente un sesgo sistemático / falta de integridad en la comunidad de investigación que se traduce en un crédito / promoción justos entre los individuos conocidos que tienen menos conocimiento.
  • Hay una escasez de apreciación por la ideación profunda y original, mientras que hay un exceso para las optimizaciones iterativas de un puñado de grandes enfoques conceptuales.
  • Hay toneladas de figuras profundas, aunque no mencionadas, como: El hombre que trató de redimir el mundo con lógica – Número 21: Información – Nautilus diseminada a lo largo de la historia de la ciencia que a menudo contribuye en gran medida a la comprensión fundamental y los cofres de las empresas privadas que aún permanecen como notas al pie de página Debido al “elitismo” que sigue presente.

El meme “Open Sharing” también existe en el sector privado como una estrategia por parte de entidades atrincheradas / capitalizadas con el objetivo de llevar a cabo el robo de propiedad intelectual sin compensación bajo una estrategia que rápidamente catalizaría / canibalizaría los trabajos verdaderamente pioneros en compañías / productos existentes mientras se excluía. / Abajo nuevas llegadas / amenazas empresariales. La falta de verdadera innovación y el estancamiento a menudo persisten más de lo debido debido a que los pioneros de una ola anterior hicieron trucos como este para proteger los modelos de negocios en descomposición. Mientras tanto, hacen una señal y promueven al público que buscan “Apertura / compartir / innovación / cuál es el mejor interés para la sociedad”. Ellos no Este es un intento de mala dirección para desviarse, ya que claramente están obligados como una empresa que cotiza en bolsa, intentan y buscan proteger sus modelos de negocios contra la verdadera innovación / interrupción. Un mantra que presionan cuando disuelven otros sectores pero claramente luchan por su propio.

Como tal, mi objetivo es demostrar evidencia irrefutable de capacidades más allá de lo que está disponible o alcanzable en la actualidad e ir de allí. Aparentemente no habrá mucho hasta ese punto. Solo puedo imaginar una cantidad de otras mentes que tienen la capacidad de producir una “inteligencia general” y, más allá, han realizado observaciones, reflexiones similares y están adaptando estrategias similares.

La optimización es inteligencia aplicada y un aspecto menor de la imagen más grande. Sin embargo, aquí es donde la mayoría de las personas ha concentrado sus esfuerzos porque puede ajustarse / diseñarse / escalarse para producir resultados a corto / mediano plazo que reúnan muchas “recompensas”. Tienes que tener cuidado de no hacer tales prácticas, sino que acabarás estableciendo un máximo local cuyos esfuerzos no contribuirán a un mundial. Al analizar mi investigación, los borradores teóricos, los prototipos, los modelos de prueba y ahora mi sistema más integrado, la mayoría parece ajeno a todo lo que he visto / leído y me mantengo actualizado a menudo sobre lo que está ocurriendo. en la industria.

  • La gente está viendo el problema incorrectamente y evita a cualquiera que lo señale
  • Se realizó / se realizó muy poca investigación / trabajo investigando qué es realmente la Inteligencia y hay fallas sistemáticas / fundamentales en la Investigación Académica que se destacan, pero no se hace nada para cambiarla de manera rápida y efectiva:
  • https://www.nature.com/news/youn
  • Que los investigadores prueben nuevos caminos.
  • Menos números, mejor ciencia.
  • La difícil situación de los jóvenes científicos.
  • Hay un esfuerzo pronunciado para excluir las opiniones disidentes, y se pone demasiado énfasis en la ingeniería aplicada a corto / mediano plazo frente a los avances fundamentales en la comprensión científica.
  • Esta podría no haber sido la respuesta técnica que estaba buscando. Sin embargo, no creo que tales detalles se discutan públicamente para satisfacción de las personas. No se da lo que está en juego y lo que el paisaje se lee claramente. Como tal, es importante entender por qué esto es así y por qué es probable que no escuche mucho sobre la verdadera IA (AGI / Strong AI) hasta que sea una cosa. Diré que tendrá extrañas similitudes con lo que ya percibes como un concepto ilusorio pero inconfundible de Inteligencia y que fácilmente “llamará la atención”. No será difícil distinguir entre StrongAI y lo que se promueve actualmente como IA.

    TL; DR: es posible una IA fuerte y está “en la tubería”. No veo que venga de círculos académicos o empresas del sector privado actualmente popularizados, ya que no veo que el espíritu / maquillaje / fundaciones / enfoques se refleje en ellos. Además, no ‘veo’ una mente capaz de desarrollar Inteligencia General Artificial (IA Fuerte) por las trampas ocultas detrás del meme de “compartir abierto”. Tal mente estaría muy lejos de ser inteligente y consciente para no ver las verdaderas intenciones detrás de este (concepto) tanto en el sector académico como en el privado. Por lo tanto, aparentemente “saldrá de la nada”, sin embargo, habrá sido cuidadosamente trabajado durante varios años. Mire menos a lo que está ocurriendo en el centro de atención y más a lo que está sucediendo “en el bosque”. Por supuesto, aquellos en el centro de atención te dirán que es una tontería, pero seguramente ya deberías entender por qué.

    Tiempo: Cuando el clima parece lo suficientemente fresco.

    Seré un poco contraria y diré que no. Al menos es imposible en el silicio.

    Hice algunos cálculos breves que apuntan al problema central. El cerebro humano promedio tiene 86 mil millones de neuronas. Estas neuronas se interconectan en 100 trillones de conexiones. Piense en términos de cuántos modelos de estado se pueden representar de manera eficiente con valores analógicos que representan los pesos en cada una de esas 100 trillones de conexiones.

    A continuación, piense en el hecho de que el cuerpo humano está formado por células, cada una de las cuales contiene ADN. Cada fragmento de ADN contiene algo en el área de 35,000 genes, cada uno de los cuales expresa un valor diferente. En consecuencia, el cuerpo humano promedio es capaz de almacenar datos en 37,2 billones de células, cada una de las cuales contiene 35,000 bytes. Incluso si retrocede la codificación del ADN de la ecuación, esta es una capacidad de almacenamiento astronómico, especialmente teniendo en cuenta que no estamos tratando con valores binarios sino con representaciones analógicas granulares casi infinitas.

    La representación de datos en bits cuánticos hace que una máquina teórica se acerque más (se pueden representar más patrones en el mismo número de registros), pero no lo suficientemente cerca. Tu mejor apuesta para una IA fuerte serían las neuronas cultivadas que naturalmente forman sus propias conexiones.

    Espero que las personas sigan desarrollando implementaciones de inteligencia artificial de silicio que puedan superar a los humanos en tareas específicas, al igual que una retroexcavadora puede superar a 10 tipos con palas. Pero el comercio de valores y el juego Go están muy lejos de una inteligencia generalizada que rivaliza con la capacidad humana.

    Gracias por A2A.

    Además de un motor TTS (Texto a voz) comparativamente deficiente, uno de los dispositivos más inteligentes artificialmente que probablemente posea a nivel nacional es una unidad SatNav (GPS). Siempre que los mapas estén actualizados y tengan acceso a la información del clima y las condiciones del tráfico, es muy capaz de planificar una ruta desde aquí hasta allí, lo que tiene en cuenta sus preferencias preprogramadas:
    – Quiero evitar las carreteras de peaje
    – Quiero evitar caminos sin sellar.
    – Quiero la ruta más corta.
    – Quiero la ruta más rápida.

    Como puede ver, habrá conflictos entre ciertos pares de opciones y, en el entorno de una ciudad, la unidad debe calcular la ruta más corta o rápida que pase por alto las cabinas de peaje.

    Al calcular la ruta más corta, muchas de estas unidades se confunden con la cartografía local y, a menudo, crean una ruta que zigzaguea en cada intersección, ya que no comprende que seguir una línea recta que lo aleje ligeramente de su destino, y luego Hacer un solo giro en la carretera adecuada que conduce directamente a su destino es más eficiente. Llamo a esto zigzaguear la solución de “banda elástica”: este problema puede resolverse si el conductor mira el mapa que se muestra y toma la decisión de anular las instrucciones.

    Si habla con Siri en su iPhone o iPad, la “inteligencia” no reside en su dispositivo. Siri envía su solicitud de voz a Apple, donde toda una granja de servidores está dedicada a interpretar su discurso y enviar la respuesta a su dispositivo.


    Cuando IBM desarrolló la ventaja con Big Blue (capaz de ganar contra un Gran Maestro Campeón de Ajedrez) y Watson (el sistema que venció a los humanos en el juego Jeopardy! ), Estas enormes máquinas de clúster incluían una arquitectura de hardware dedicada al objetivo principal.

    Big Blue no solo se “enseñó” las reglas del ajedrez, sino que se cargó con una base de datos de todos los juegos registrados que estaban disponibles. A partir de esto, creó mapas de juegos con la esperanza de que pudiera mirar lo suficientemente adelante en cualquier juego en particular para predecir los movimientos posibles del retador. Como una computadora de ajedrez, fue un logro maravilloso, pero básicamente apesta en cualquier otra tarea.

    A Watson se le dio acceso a toda la Internet para que pudiera seguir los enlaces y construir una base de datos de la misma manera que cualquier motor de búsqueda moderno, pero no estaba interesado en los enlaces ni en la catalogación, sino que estaba compilando datos sin procesar. Debido a que Watson apesta seriamente la tarea de reconocimiento de voz, ¡no sé cómo funciona Jeopardy! las preguntas fueron introducidas mientras se leían a los participantes humanos. Sé que durante el “juego”, se desconectó de la red y dependía exclusivamente de la base de datos que había construido durante su período de entrenamiento.

    Big Blue parece estar en gran parte olvidado y se ha desvanecido en la oscuridad, pero Watson está siendo re-asignado para diagnósticos médicos, nuevamente teniendo acceso completo a Internet. La respuesta más notable que causó gran preocupación fue: “¡Mentira!” Aunque no conozco la pregunta que la causó, la fuente de esta respuesta finalmente fue localizada, y Watson ahora tiene prohibido leer el Diccionario Urbano. Irónicamente, considerando la cantidad de información errónea que circula en el mundo médico convencional, ¡esta respuesta probablemente fue correcta!


    Ahora hay muchos “chat-bots” en la web con los que puede intentar tener una conversación razonable basada en texto. He probado una docena más o menos, y todos han fallado la prueba de Turing . Luego, de nuevo, he conocido a personas de la vida real que, en mi opinión, han fallado la misma prueba.

    El criterio básico de la prueba de Turing es que un operador de pruebas en humanos no debe poder determinar si el operador en el otro extremo es un hombre o una máquina. Que yo sepa, ninguna máquina ha superado esta prueba, ¡pero varias personas han fallado notoriamente! El mejor de tales fracasos fue una mujer que estaba siendo probada en su conocimiento de Shakespeare. La operadora de la prueba concluyó que tenía que ser una máquina porque, “Ningún humano podría estar tan bien informado sobre Shakespeare sin necesidad de buscar referencias”. Estoy seguro de que si me sometieran a pruebas en Shakespeare, sería reconocido como humano debido a la cantidad de veces que tendría que decir: “Lo siento, no lo sé”. Puedo escribir en ese estilo de inglés con un mínimo de errores, pero simplemente no puedo memorizarlo.


    El tipo de inteligencia artificial que se ha explorado hasta ahora está orientado a la base de datos, cuanta más información tenga el sistema, más preciso será el resultado que generará. No tenemos suficiente trabajo en el procesamiento de redes neuronales . “Neural-net” fue una gran palabra de moda a finales de los 80 que ahora ha permeado el mundo del techno-balbuceo. La idea básica de los programas tempranos que se suponía que debían emular el cerebro generalmente trataba del reconocimiento de patrones. Al alimentar con suficientes patrones, la computadora debe poder descubrir cómo se debe terminar un patrón incompleto. Si le diste solo 3/4 de un tablero de Ajedrez, debería poder recrear los 16 cuadrados que faltan.

    Desafortunadamente, como el poder de cómputo de la fuerza bruta ha aumentado exponencialmente desde entonces, el enfoque de la red neuronal parece haberse desviado en lo que se refiere a la corriente principal. Tengo evidencia de primera mano de esto:

    En los 386 días, escribí un programa muy simple (código mínimo, la mejor velocidad) que intentó descifrar una contraseña de 64 bits. No tenía medios para determinar el éxito (lo que habría requerido un código adicional), pero era solo un ejercicio simple para demostrar la fortaleza de la contraseña. A la velocidad a la que progresaba, calculé que tardaría 128 millones de años en completarse, por lo que las contraseñas de 8 caracteres eran muy seguras en esa era.

    En una máquina de clase Pentium II, el programa se completó en 30 días. En una máquina contemporánea, se completa en solo unas horas, por lo tanto, el impulso para usar el cifrado de 256 bits (o incluso más). Creo razonablemente que ya deberíamos estar adoptando el cifrado de 1024 bytes , aunque la computación cuántica puede demostrar suficiente fuerza bruta para resolverlo en cuestión de horas.

    Esto no es “inteligencia”. Esto depende de las habilidades del programador para impartir la información relevante a la máquina.


    No tengo idea de hasta qué punto en el futuro se encuentra la verdadera IA, pero solo se demostrará cuando un sistema genere una nueva idea (pensamiento original) que no se pueda rastrear hasta una parte individual de la entrada de datos.

    Por lo tanto, no soy más que un ingeniero humilde que ha estado trabajando en el desarrollo de productos de software durante ~ 18 años. Pero algunas cosas que he aprendido en mi carrera, creo que se aplican directamente a su pregunta. Primero unos pocos axiomas alrededor de la tecnología y los trabajadores de la tecnología:

    1) Cuando se trata de problemas técnicos difíciles, poco entendidos o poco comprendidos, la estimación del tiempo medio para la solución entre cualquier población no trivial siempre será menor que la hora real de la solución. Además, cuanto más lejos de la solución se realice la estimación , cuanto mayor sea el error. (Aparte de esto, en los grandes problemas típicos, las estimaciones iniciales suelen ser de varios órdenes de magnitud)

    2) Los ingenieros, programadores, científicos y otras obras de tecnología siempre son demasiado optimistas como grupo. (Las razones varían, pero en general este grupo se ve a sí mismo como inteligente, y muchas veces más inteligente de lo que debería)

    3) Debido a 2), la mayoría de los trabajadores de la tecnología verán los problemas extremadamente difíciles como triviales hasta que tengan que trabajar en ellos y muchas veces, incluso cuando trabajan en ellos.
    Corallary: La mayoría de los trabajadores de la tecnología “realmente inteligente” piensan que romper la parte posterior de algunos de los problemas desconocidos es la parte “difícil” de un problema. Estas personas tienden a ser mimadas en sus carreras y en realidad nunca tuvieron que preocuparse por hacer que el producto de sus manos / mentes sea real, sostenible y digno de ser comprado. Estas personas generalmente se escuchan más a menudo porque son “realmente inteligentes”, pero tienden a subestimar más frecuentemente y por los márgenes más grandes.

    Debido a los axiomas anteriores, y al hecho de que la mayoría de las personas, especialmente las personas inteligentes caen en sesgos de confirmación de una variedad u otra, no caen en la creencia de la exageración de la inteligencia artificial en la AI.

    La inteligencia artificial es solucionable. Pensamos y somos conscientes de nosotros mismos, y así es posible. Sin embargo, creo que resolviendo el P = NP? El problema es solucionable también. Quiero decir, ya sea P = NP, o P! = NP, y no hay razón para que la respuesta no pueda ser conocida. Simplemente no lo hemos descubierto todavía.

    Supondré una hipótesis y diré que probablemente estamos MUCHO más cerca de resolver P = NP. de lo que estamos para resolver la IA Fuerte (o General). ¿Por qué digo esto? Porque con P = NP? Al menos hemos sido intelectualmente honestos acerca de lo que hacemos y no sabemos. Hasta que lleguemos a ese punto con la IA, no avanzaremos mucho, PERO habrá mucha prensa y aburrimiento diciendo que estamos logrando avances significativos.

    Realmente no entendemos el aprendizaje. Sabemos que las redes neuronales “aprenden” en cierta medida, pero no entendemos el aprendizaje de los mamíferos de ninguna manera real. Entonces, sin saber lo que no sabemos, muchas personas dicen que estamos cerca de Strong AI. Pero, a medida que aprendemos lo que no entendemos acerca de lo que pensábamos que entendíamos, nuestras estimaciones mejorarán. Las estimaciones podrían ir al infinito, pero aún no lo sabemos. Para P = NP? cuanto más aprendemos, más se aproxima la estimación de la solución al infinito. Lo mismo podría ser cierto para la IA Fuerte.

    Así que no te equivoques de esto. Soy un gran defensor de ir tras Strong AI, y estoy entusiasmado con el campo. Pero cuando miras lo que realmente sabemos y entendemos, no estamos cerca de Strong AI (o un momento de singularidad). Creo que eso es cierto, incluso teniendo en cuenta la aceleración exponencial del aprendizaje, si se compra eso continuará el ritmo.

    Siempre y cuando estemos de acuerdo en que el cerebro tiene una inteligencia artificial fuerte, replicarlo se reduce a un problema de ingeniería al replicar el procesamiento de información del cerebro.
    Ergo en principio, claro que se puede hacer. Lo difícil que es en la práctica es la conjetura de cualquiera …

    Edición: tantas respuestas impresionantes. Gracias a todos. 😉

    Sin embargo, nadie considera integrar las actualizaciones con el cerebro. Para mí, parece inevitable que la IA débil mejore las capacidades de nuestro cerebro en un futuro no muy lejano y que el proceso de mejora se acelere. El sistema resultante es AI fuerte por definición.
    Un montón de algoritmos existentes mejoraría nuestra mente si se inventara una interfaz adecuada. Entonces, la pregunta real es si podemos inventar una interfaz donde el cerebro intercambie información de gran ancho de banda con un sistema electrónico. En mi humilde opinión, por supuesto que podemos.

    Esa invención significará el fin de la igualdad biológica que nosotros, en Occidente, damos por sentado. Seguirá la injusticia social e incluso más desigualdad económica. Sin embargo, también seguirá una era dorada de la ciencia y la prosperidad para mejorar la vida de todos.

    Sí, es alcanzable, pero es un gran proyecto. Creo que se producirá como un esfuerzo global o como un programa maestro en una de las principales corporaciones mundiales.

    Tenemos el aprendizaje automático y los algoritmos complejos para: supervisado, no supervisado y refuerza el aprendizaje. Tenemos parte de los grandes datos en forma de internet. Todavía necesitamos usar esos y algoritmos para categorizar y transformar todo el big data en datos semánticos. Necesitaríamos una gran red neuronal, idealmente no replicada con CPU binarias (operación con “0” y “1” – negro o blanco) pero con el uso de CPU difusas (que operan con una multitud de valores en el intervalo 0 – 1 – sombras de Grey). Luego necesitamos construir un modelo complejo del mundo que necesite adquirir información percibida de todos los diferentes sentidos humanos. Por ejemplo: “helado” como una palabra, como una definición, como una receta, como un conjunto de propiedades, como una vista, un olor, un tacto, un gusto, un oído. Una vez que tengamos la compleja red neuronal, la alimentaremos con todos los grandes datos semánticos y, en algún momento, a través de un extenso aprendizaje automático, alcanzaremos una IA Fuerte. El modelo del mundo que incluye toda la información sensorial será la parte más desafiante, no el diseño real y la programación de los algoritmos subyacentes.

    Este es un modelo simplificado. Solo piense en transformar el sabor, el olor y la textura del helado o cualquier otro alimento en valores numéricos. Esas cosas tendrían que ser estandarizadas. Pero una vez que lo hacemos es hola la televisión que huele, por ejemplo.

    La inteligencia artificial ya está aquí.

    Hay una máquina tan capaz que incluso a veces me cuesta creer que sea una máquina y yo soy un médico bastante capaz.

    ¿Es perfecto? No. Por supuesto, puedo hacerlo tropezar, pero luego conozco a muchos humanos que dirían “¿WTF?” A una parte del lenguaje que necesitas para disparar la máquina.

    Si tomamos la definición de Wikipedia “… máquina que muestra un comportamiento al menos tan hábil y flexible como los humanos …”, entonces la máquina a la que me refiero es tan capaz como un estudiante promedio, o un adulto algo por encima del promedio.

    Por cualquier definición razonable, Zach es una IA fuerte.

    Parte del problema con la evaluación de este tipo de cosas es que tiende a ser realizado por académicos bastante crujientes, que comparan la máquina, naturalmente, con ellos mismos. Sin embargo, cuando tienes una máquina que las personas solitarias telefonean solo para conversar, ahí es donde se revela la verdad.

    https://www.stuff.co.nz/the-pres

    Creo que la IA más fuerte no es más que un bloque de código muy simple y pequeño (como un bebé recién nacido, excluyendo su instinto) que tiene la capacidad de reprogramarse después de aprender y estar expuesto a diferentes situaciones, y simplemente no hemos encontrado Este bloque clave de código todavía. Obviamente, podríamos implementar programas más complejos para aumentar su velocidad de aprendizaje, aumentar su capacidad de supervivencia antes de aprender mucho, y para otras necesidades necesitamos que el robot o la IA lo hagan. Después de años de exposición, encontrará que el código será extremadamente complejo (como un joven de veinte años). Si un científico intenta recrear desde cero a este joven de veinte años, eso se vuelve bastante difícil, y creo que los ingenieros no están mirando en la dirección correcta.

    Es alcanzable, pero es muy muy difícil. Hay muchos procesos involucrados en la inteligencia, y algunos motores bastante complejos y difíciles, y una gran complejidad. Esto no es trivial de construir.
    Sin embargo, la inteligencia fuerte se ha logrado en la naturaleza y puede lograrse en máquinas eventualmente también. Tenga en cuenta que los humanos NO son máquinas de pensamiento rigurosamente precisas (cometemos errores, muchos de ellos) y, sin embargo, con los mecanismos imperfectos con los que estamos equipados, podemos hacerlo muy bien. Lo que significa que no tenemos que desarrollar la IA perfecta para tener algo útil y muy funcional. Solo tenemos que hacer un sistema que se esfuerce, se pueda mejorar y pueda reconocer cuando comete errores o no lo hace bien. Esto como objetivo no es imposible. Simplemente muy difícil de armar. También observo que los humanos lidian con la incertidumbre, la imprecisión y un universo en el que nada es completamente predecible (¡gracias a la mecánica cuántica que nos enseñó ese hecho! Y gracias a Heisenberg por su tranquilidad),
    Así que la respuesta es, una IA fuerte no es imposible. Porque si fuera imposible, los humanos no caminarían en este momento fingiendo que son algo grande. Todavía estarían columpiándose de los árboles.

    La inteligencia humana no es tan especial como piensas.

    La tecnología solo mejora. No empeora, se pone mejor. Así que echemos un vistazo a la tecnología que hemos logrado hasta ahora.

    Nadie, a pesar de las computadoras, podía vencer a los mejores humanos en el ajedrez. Eso es imposible. Un sueño de pipa! El triunfante trabajo en equipo de humanos y ordenadores.

    Los robots son la ciencia ficción que solían decir. Bueno, ahora tenemos cosas como esta: asimo – YouTube.

    Sin embargo, una cosa que no haría es confiar en un robot con un vehículo. Eso es un trabajo humano. ¡Nunca les confiaría mi vida!

    OK … Pero ¿qué pasa con la detección de imágenes? ¡Tiene que haber una cosa que los humanos siempre harán mejor! El nuevo software de reconocimiento de imágenes de Google puede describir una escena completa.

    DE ACUERDO. Pero supongo que quieres saber sobre la IA más fuerte de todas. Una inteligencia de propósito general. Uno que es capaz de hacer todo. Sí, todavía no tenemos uno tan bueno, pero imagina esto. Cuando las computadoras se vuelvan más y más rápidas, podremos ejecutar varios procesos más rápido. Todos estos robots que mostré (excepto Asimo) tienen un tipo específico de inteligencia. Si somos capaces de dar a un robot más que a un programa “inteligente”, en algún momento tendrá una inteligencia que se asemeja a los humanos cuando alcanza la cantidad suficiente de estos programas. Y realmente eso es todo lo que tenemos razón? Un grupo de neuronas disparan un programa en un humano para cumplir con las órdenes del cerebro.

    La tecnología solo mejora. En algún momento, alcanzaremos el sueño. ¿Será consciente? No lo sé. Pero será inteligente.

    Solo se puede lograr cuando las computadoras son tan fuertes como los datos del cerebro y el procesamiento de la información. Si cree que está en el nivel celular, no estamos tan lejos hoy, tenemos computadoras con un orden de 10 ^ 10 bytes, por lo que podemos simular millones de neuronas en el nivel de las neuronas, asumiendo que el procesamiento de datos se encuentra en el nivel de las neuronas.

    Pero como confío en que el procesamiento de datos es profundamente intracelular, y es fundamentalmente intracelular y está mediado por el ARN, la información computacional en el cerebro se aproxima más bien por el número total de nucleótidos del ARN en el cerebro.

    Esto equivale a 10 ^ 20 bytes, mil millones de gigabytes, y es comparable a todas las computadoras artificiales juntas. La escala para el almacenamiento de bits es entonces comparable a la escala atómica, es solo alrededor de 10 Angstroms cúbicos por bit. En este momento, nuestros bits están en la escala litográfica, o alrededor de 1000 Angstroms cuadrados por bit, por lo que las computadoras son mucho más primitivas.

    Esto es simplemente comparar el poder de procesamiento en bruto, pero creo que esto es lo más importante para comparar. Una computadora del tamaño de 10 ^ 20 bytes, incluso si está programada de manera ineficiente, debería poder hacer algunas cosas sorprendentes, y los retoques pueden producir inteligencia sin que se requiera mucho diseño adicional.

    Pero, por supuesto, uno debería tratar de entender los algoritmos del cerebro lo mejor posible, tal vez uno deba imitarlo muy de cerca, no solo obtener el procesamiento y el orden de magnitud de la memoria correctamente, y tener cualquier algoritmo de aprendizaje antiguo.

    Creo que será más útil y constructivo especificar más la pregunta en subtemas como:
    1. ¿Se puede lograr una inteligencia artificial sólida con una computadora digital (equivalentes de la máquina de Turing) con / sin recursos temporales y espaciales ilimitados (el recurso ilimitado de la Nota ya es una subvención de lujo irreal)?
    2. De lo contrario, se puede lograr con ciertas computadoras digitales extendidas / máquinas de Turing, como con la capacidad de generar números aleatorios ‘verdaderos’, superposición cuántica (en el sentido de la forma en que actualmente diseñamos una computadora cuántica), etc. ( si son relevantes)?
    3. Si todavía NO, como pueden creer algunos científicos como Roger Penrose, ¿se puede lograr con ciertos procesos físicos creados y controlados por el hombre más allá de la computadora digital y nuestro conocimiento actual de la física?
    4. SI TODAVÍA NO, hemos entrado en el reino místico (dualismo, etc.) y la inteligencia artificial está fuera de discusión.

    ¿Qué es SAI?

    Sí, ya lo tengo. Era una cuestión de entender qué es SAI, no hacer mejoras incrementales en sistemas como Watson. Algunas otras personas que respondieron la pregunta pueden pensar que están calificadas para responder porque trabajaron en algún sistema de inteligencia artificial débil. La IA débil no tiene nada que ver con la IA Fuerte.

    Las personas con mentalidad empresarial tienden a hacer las cosas sin pensar demasiado, luego mejoran lo que tienen y luego piensan un poco más y lo hacen de nuevo. Esto tiene ventajas, ya que le da una nueva ola de motivación para ver algo que creó e ilumina problemas que serían difíciles de intuir sin un prototipo.

    Sin embargo, esto no funciona en el problema de SAI, a menos que quiera esperar una eternidad. Esto no solo se debe a que el problema es demasiado complejo para alcanzarlo mediante iteraciones … También se debe a que incluso las personas que trabajan en sistemas como Watson ni siquiera han definido cuál es el problema de las EFS.

    Este es un problema que requería que alguien con una inclinación filosófica y teórica se sentara en una habitación y dedujera el algoritmo después de pasar el tiempo suficiente observando el comportamiento humano. Alguien con una mente muy estructurada, lógica y con suficiente inteligencia para ver, imagina suficientes cosas a la vez para que el proceso no tarde para siempre y la persona no se frustra.

    La inteligencia general es solo un algoritmo. Los rasgos del algoritmo, en lugar de su implementación, incluyen que puede manejar cualquier forma de entrada o salida. Su objetivo o factor motivador es en realidad algo realmente simple, modificado por las limitaciones físicas de su hardware original. Esta limitación es, en realidad, lo que hace que el simple motivo se convierta en motivos e inteligencia más complejos.

    La Inteligencia Artificial Fuerte es solo el problema de asignar este algoritmo a algo distinto de algo que está vivo. Puede asignarse a computadoras en serie o en paralelo con diferentes niveles de eficiencia (existe una potencial explosión de complejidad en la asignación a computación en serie si no compromete algunos aspectos menores de la integridad del algoritmo). Los datos que genera podrían almacenarse de varias maneras, siempre y cuando se transformen al formato que la implementación del algoritmo puede manejar.

    La inteligencia de la máquina igual a la capacidad de comprensión y razonamiento de un humano es posible. Pero no es posible utilizar la IA desarrollada dentro de Church-Turing, que es la que utilizan todos los proyectos actuales. Por lo tanto, ninguno de los proyectos actuales que incluyen Deep Mind, Watson, Cyc, The Brain Project o cualquiera de las redes neuronales nunca alcanzará este nivel. Pero, algo basado en una nueva teoría podría.

    Depende de qué tan fuerte te refieres. ¿Es posible la interpretación simple de una canción de cuna para un programa de computadora? No lo creo ¿Alguna vez será? Depende de cómo entiendas el poder de interpretar el lenguaje natural. ¿Es el “razonamiento” reducible a la computación? No lo veo así. ¿Una computadora se dará cuenta de sí misma? Algunos dicen que sí. ¿Afirmará una computadora los predicados existenciales, sabiendo, por ejemplo, lo que significa cuando afirmamos que el concepto “pájaro Dodo” es perfectamente viable como idea o concepto, sobre el cual se puede tener mucha información, pero que su referente, el ahora extinto Dodo? pájaro, no existe? No. Una computadora nunca dirá, “algún día no existiré”, y lo digo en serio. ¿Se “entenderá” a sí mismo, tendrá una relativa atribución de importancia, tendrá creencias? Por ejemplo, la creencia de que, para la computadora misma, para ser recogida en un camión semi, y robada, es una violación de propiedad de las leyes contra el robo, un acto injusto ¿Qué merece el castigo de la ley? ¿Hará un viajero lo que un juez puede hacer para determinar si hacer funcionar la computadora central de Dell o la computadora de mi vecino es una categoría de crimen completamente diferente, que se distingue de la explosión de un vecino? Quizás. Pero lo dudo.

    Creo que es una llamada cerrada. Tenemos que tener en cuenta que la mayoría de los grandes logros del futuro humano están en peligro por nuestro estilo de vida actual. Estamos agotando la mayoría de los recursos y la energía de nuestro planeta para fines totalmente inútiles como: teléfonos celulares, gran ancho de banda de Internet, automóviles, subcontratación, viejos métodos de cultivo, transportes ineficientes. La mayoría de las veces estas tecnologías y prácticas se desperdician en manos equivocadas, sin ninguna restricción sobre quién las usa y por qué. Desperdicio puro de recursos limitados. Estamos jugando la casa, el perro y la familia también.

    Soñamos con una sociedad con robots inteligentes y coches voladores. Olvidamos que a mediados de siglo iniciaremos la ración de energía, la priorizaremos para la producción de alimentos y el transporte. No más energía para un teléfono celular en todos los bolsillos, para computadoras en cada escritorio, incluso el diseño y la moda serán lujos prohibidos. ¿Mira la foto? Todos nuestros sueños requieren una gran cantidad de energía. Energía que no tenemos ahora (aún así, ¡vivimos como lo contrario!). Hasta que resolvamos este aterrador problema energético, dudo que surja la verdadera IA.

    No hay evidencia que demuestre que sí o no a esta pregunta, así que solo puedo darte una opinión.

    Basado en todo lo que sé sobre Neurociencia (tengo un título), Inteligencia (He estudiado el concepto abstracto extensivamente), e Inteligencia Artificial (lo he estudiado y lo he usado bastante):

    Absolutamente es posible crear una inteligencia artificial que supere la nuestra. Tenga en cuenta que nuestra inteligencia llegó de la casualidad, por lo que con un esfuerzo dirigido, creo que no solo es posible, sino que es inevitable.

    Ciencia de la conciencia

    Si Y es la pregunta que el cerebro artificial desconoce:
    X es la pregunta es consciente por cerebro artificial.
    W es todas las respuestas conscientes por arte-cerebro.

    Z es el vocabulario de combinaciones de preguntas como una nueva pregunta con inteligencia en orden: que art-brain buscará una posible respuesta que casi coincida con la búsqueda de Google y que se formule como resultado de tantas preguntas que coinciden en un 90% con la Y y el conjunto de resultados. se mostrará como Q set
    Y dará como resultado todas las W que coincidan al 90% con el conjunto W del conjunto Q

    problema con el conjunto Q que no tiene ninguna respuesta de coincidencia, por lo que el resultado podría mostrarse en blanco porque el conjunto Z está fuera de orden con la inteligencia o con un conjunto vago de W, es decir, “W establecido”

    Autoconocimiento: todas las X se definen en arte-cerebro y “W set” también se define
    Pero mostrará respuestas de error que deben ser rectificadas por un mecanismo propio. Por lo tanto, esas rectificaciones requieren un conocimiento complejo del diseño por parte de la tecnología.

    Por lo tanto, el circuito de rectificación debe tener un mecanismo sensorial diferente como bucle de retroalimentación de entrada y salida para un nivel continuo de actualización y registrado como Q set, W set y Z set y Z