La combinación de la inteligencia artificial (IA) y la neurociencia sigue siendo un campo apasionante para la investigación científica. El estudio de la cognición humana se entrecruza con el desarrollo de máquinas inteligentes, lo que cataliza avances en ambos campos. Esta relación simbiótica tiene el potencial de revolucionar nuestra comprensión de la cognición y desarrollar diagnósticos y tratamientos más precisos para las enfermedades neurológicas.
La inteligencia artificial es una disciplina de la informática que se ocupa del desarrollo de máquinas que puedan emular la inteligencia humana. La IA se ha implementado con éxito en ámbitos como el diagnóstico médico o el procesamiento del lenguaje natural.
Los avances en hardware han impulsado cambios tecnológicos hacia el desarrollo del aprendizaje automático y hacia métodos de aprendizaje profundo. El uso de estructuras neuronales orgánicas en la arquitectura neuromórfica sostenible llama la atención sobre el desarrollo de la computación eficiente, lo que conduce a otro gran avance técnico.
La neurociencia es el término general que engloba todos los aspectos del estudio del cerebro y el sistema nervioso. Estos aspectos incluyen la fisiología, la anatomía, la psicología e incluso la informática. La neurociencia nos proporciona los medios para comprender el funcionamiento del cerebro y, por lo tanto, conocimientos sobre su implementación mediante algoritmos de inteligencia artificial. Por el contrario, la inteligencia artificial se utiliza en la investigación neurocientífica para analizar grandes cantidades de datos relacionados con la funcionalidad y la patología del cerebro.
Este artículo pretende profundizar en la relación interdependiente entre la Inteligencia Artificial (IA) y la neurociencia.
Prerrequisitos
- Comprensión básica de los conceptos de IA: familiaridad con el aprendizaje automático, las redes neuronales y el modelado computacional.
- Enfoque interdisciplinario: Interés en conectar los principios biológicos con las técnicas computacionales.
- Habilidades analíticas: Capacidad para analizar críticamente la literatura científica y las tecnologías emergentes.
Redes neuronales artificiales
Las redes neuronales artificiales (RNA) han cambiado la inteligencia artificial para siempre, al brindarles a las máquinas la capacidad de realizar tareas que normalmente requerirían inteligencia humana. Estas redes imitan la arquitectura y las acciones de las redes neurobiológicas, replicando aproximadamente cómo interactúan las neuronas para procesar información en un cerebro.
Aunque las ANN han tenido éxito en una gran cantidad de tareas, la relación entre las ANN y la neurociencia podría brindarnos conocimientos más profundos sobre la inteligencia artificial y biológica.
Los fundamentos de las redes neuronales artificiales
Una red neuronal artificial es una colección de nodos artificiales interconectados, a los que a menudo se denomina neuronas o unidades. Dado un conjunto de neuronas, estas procesarán los datos entrantes pasando por diferentes capas que realizan operaciones matemáticas para obtener información útil y hacer predicciones.
Una ANN tiene varias capas, incluida una capa de entrada, una o varias capas ocultas y una capa de salida . Los enlaces que conectan las neuronas se denominan pesos. Estos pesos se ajustan durante el entrenamiento para minimizar la diferencia entre nuestro resultado previsto y el resultado real. La red aprende de los datos a través de una llamada retropropagación, donde se ajusta repetidamente moviéndose hacia adelante y hacia atrás a través de las capas. Podemos representar una red neuronal artificial (ANN) en el siguiente diagrama:
Estructura y aprendizaje de una red neuronal artificial
El diagrama anterior representa una red neuronal artificial (RNA) con una capa de entrada, dos capas ocultas y una capa de salida. Los datos de entrada fluyen a través de las capas ocultas hacia la capa de salida. Cada conexión tiene un peso que se ajusta en la fase de entrenamiento. La retropropagación se representa como líneas discontinuas, que indican el ajuste del peso para minimizar los errores.
Las redes neuronales del cerebro
El cerebro humano es un conjunto de miles de millones de neuronas, responsables de crear el sistema nervioso . Las neuronas se comunican a través de señales eléctricas y químicas, muchas de las cuales surgen de redes complejas. Estas redes permiten al cerebro codificar información, tomar decisiones y dirigir el comportamiento. Las neuronas reciben información de otras neuronas a través de sus dendritas, esa información en el cuerpo celular (también conocido como soma), y luego envían señales a las neuronas posteriores a través de los axones. Las redes neuronales del cerebro son altamente dinámicas y pueden aprender de la experiencia, almacenar información relevante para nuevas situaciones o recuperar la función si se dañan. La neuroplasticidad es la capacidad del cerebro para reorganizarse en respuesta a los cambios en el entorno . El diagrama a continuación ilustra una vía de transmisión de señales neuronales.
Vía de transmisión de señales neuronales
La anatomía funcional de una neurona se muestra en el diagrama anterior para ilustrar sus componentes y sus funciones durante la transmisión de señales. Las dendritas funcionan como antenas para las neuronas, recibiendo señales de otras neuronas a través de una conexión sináptica. El cuerpo celular (soma) consolida estas señales y, con la ayuda de su núcleo, decide si debe crear un potencial de acción.
El axón envía señales eléctricas desde el cuerpo celular para comunicarse con otras neuronas, músculos o glándulas. La vaina de mielina (opcional) aísla el axón para una transmisión más rápida de la señal. En el extremo del axón, los botones terminales liberan neurotransmisores en una hendidura sináptica que se unen a los receptores en las dendritas de la neurona receptora. Los neurotransmisores son mensajeros químicos liberados en la hendidura sináptica. Los receptores en las dendritas de la neurona receptora unen neurotransmisores para activar y mover señales más lejos.
Redes neuronales recurrentes: imitando la memoria en el cerebro para el análisis secuencial de datos
Las redes neuronales recurrentes (RNN) almacenan información en sus estados ocultos para extraer los patrones en secuencias de datos. A diferencia de las redes neuronales de propagación hacia adelante, las RNN procesan una secuencia de entrada paso a paso. El uso de entradas anteriores para afectar las salidas actuales es ideal para tareas como el modelado de lenguaje y la previsión de series temporales. El flujo en una red neuronal recurrente se describe en el diagrama de flujo a continuación:
Flujo dentro de una red neuronal recurrente
En el diagrama anterior, la secuencia de entrada X
se introduce en la red como Input X_t
, que la RNN utiliza para actualizar su estado oculto a Hidden State h_t
. En función de este estado oculto, la RNN genera una salida, Output Y_t
. A medida que avanza la secuencia, el estado oculto se actualiza a Hidden State h_t+1
con la siguiente entrada Input X_t+1
. Este estado oculto actualizado evoluciona a Hidden State h_t+2
medida que la RNN actualiza cada entrada posterior, produciendo continuamente salidas para cada paso de tiempo en la secuencia.
La memoria en neurociencia consiste en adquirir, almacenar, retener y recordar información. Se puede dividir en memoria de corto plazo (memoria de trabajo) y memoria de largo plazo, y el hipocampo desempeña un papel importante en la memoria declarativa. La fuerza de las sinapsis que cambia a través de la plasticidad sináptica es esencial para el aprendizaje y la memoria del cerebro.
Las RNN toman prestada gran parte de las funciones de memoria del cerebro y emplean estados ocultos para transmitir información a través del tiempo, aproximándose así a los bucles de retroalimentación neuronal. Ambos sistemas ajustan su comportamiento en función de la información pasada, y las RNN utilizan algoritmos de aprendizaje para modificar sus pesos y mejorar el rendimiento en tareas secuenciales.
Redes neuronales convolucionales y el cerebro: una perspectiva comparativa
Las redes neuronales convolucionales, que han transformado la inteligencia artificial, se inspiran en el paradigma de la naturaleza. Mediante su análisis multicapa de las entradas visuales, las CNN detectan patrones significativos de manera análoga al enfoque jerárquico del cerebro humano.
Su arquitectura distintiva emula la manera en que nuestro cerebro extrae representaciones abstractas del mundo mediante operaciones de filtrado y agrupamiento en toda la corteza visual. Así como el éxito de CNN transformó la percepción de las máquinas, compararlas con el cerebro mejora nuestra comprensión de la visión artificial y biológica.
Sistema de visualización cerebral
El cerebro humano es un poderoso centro de información visual. La corteza visual, situada en la parte delantera del cerebro, es la encargada de procesar la información visual, para lo cual utiliza una estructura jerárquica de neuronas . Estas neuronas están dispuestas en capas, y cada capa se ocupa de diferentes aspectos de la escena visual, desde simples bordes y texturas hasta formas y objetos completos. En las etapas preliminares, las neuronas de la corteza visual responden a estímulos simples, como líneas y bordes. A medida que la información visual se desplaza por las capas sucesivas, las neuronas integran estas características básicas en representaciones complejas y, en última instancia, en el reconocimiento de objetos.
La arquitectura de las redes neuronales convolucionales
Las CNN tienen como objetivo replicar este enfoque y la red resultante es una arquitectura con múltiples capas. Las capas convolucionales, las capas de agrupación y las capas completamente conectadas son diferentes tipos de capas en una CNN. Son responsables de detectar las características específicas en la imagen de entrada, donde cada capa pasa sus resultados a las capas siguientes. Consideremos cada una de ellas:
- Capas convolucionales : estas capas utilizan filtros para “observar” la imagen de entrada y detectar características locales como bordes o texturas. Cada filtro se comporta como un campo receptivo y captura la región local en los datos de entrada, de forma muy similar a los campos receptivos de las neuronas en la corteza visual.
- Capas de agrupación : estas capas reducen las dimensiones espaciales de los datos, pero conservan las características fundamentales. Es una buena aproximación al hecho de que el cerebro humano puede condensar y priorizar la información visual.
- Capas completamente conectadas : en las etapas finales, las últimas capas integran todas las características detectadas. Este enfoque es similar a cómo nuestro cerebro integra características complejas para reconocer un objeto, lo que conduce a una clasificación o decisión final.
Similitudes y diferencias
La similitud entre las redes neuronales artificiales diseñadas para tareas de visión artificial y el complejo sistema visual de los organismos biológicos radica en sus arquitecturas jerárquicas. En las redes neuronales artificiales, esta progresión surge a través de neuronas simuladas que realizan operaciones matemáticas. En los seres vivos, surge a través de neuronas reales que intercambian señales electroquímicas.
Sin embargo, existen diferencias notables. El manejo de la visualización por parte del cerebro supera con creces a los algoritmos actuales en complejidad y dinamismo. Las neuronas orgánicas tienen la capacidad de una plasticidad interactiva basada en la experiencia que es imposible de emular por completo. Además, el cerebro asimila información, otros sentidos y detalles contextuales. Esto le permite formar una comprensión más rica y holística del entorno en lugar de analizar imágenes de forma independiente.
El aprendizaje por refuerzo y el cerebro: explorando las conexiones
Un paralelismo que podría existir entre el aprendizaje automático y el cerebro humano es que ambos sistemas aprenden interactuando con su entorno. El campo de la inteligencia artificial está adquiriendo cada vez más importancia a través de algoritmos de aprendizaje automático, lo que nos permite comprender mejor cómo se relacionan sus estrategias de aprendizaje con las de nuestro cerebro.
Aprendizaje por refuerzo
El aprendizaje por refuerzo (RL) es un tipo de aprendizaje automático en el que el agente aprende a tomar decisiones interactuando con su entorno. Obtiene una recompensa o una penalización según sus acciones. Después de suficientes ensayos, el algoritmo de aprendizaje determina qué acciones conducen a maximizar la recompensa acumulada y aprende una política optimizada para tomar decisiones.
El aprendizaje permanente implica componentes clave:
- Agente: Toma decisiones para alcanzar un objetivo.
- Entorno: es todo aquello que está fuera del agente con lo que este puede interactuar y del que puede obtener retroalimentación.
- Acciones: Son las diferentes cosas que el agente puede elegir hacer.
- Recompensas: El entorno le otorga al agente puntos buenos o malos después de cada elección para permitirle saber cómo le está yendo.
- Política: La estrategia que sigue el agente para determinar sus acciones.
Mecanismo de aprendizaje del cerebro
De manera similar a los algoritmos de RL, el cerebro humano opera en un entorno que proporciona señales de refuerzo durante el aprendizaje. En lo que respecta al aprendizaje cerebral, especialmente el aprendizaje relacionado con el refuerzo, algunos mecanismos son parte de esto:
- Circuitos neuronales: redes de neuronas que reciben información y orientan la toma de decisiones.
- Sistema de dopamina: sistema de neurotransmisores que interviene en la recompensa y el aprendizaje por refuerzo. Las señales de dopamina son una retroalimentación de recompensa que ajusta el comportamiento futuro.
- Corteza prefrontal: región del cerebro involucrada en la planificación, la toma de decisiones y la evaluación de posibles recompensas/penalizaciones.
Similitudes entre el aprendizaje por refuerzo y el aprendizaje cerebral
Consideremos algunas similitudes entre el aprendizaje por refuerzo y el aprendizaje cerebral:
- Prueba y error: los algoritmos de RL y el cerebro aprenden mediante prueba y error. Los agentes de RL difieren en las acciones que realizan para ver qué les brinda las recompensas óptimas. De la misma manera, nuestro cerebro prueba varios comportamientos para encontrar qué acciones son las más efectivas.
- Aprendizaje basado en recompensas: en el aprendizaje permanente, los agentes aprenden de sus recompensas. Las señales de dopamina motivan al cerebro a reforzar las conductas que conducen a resultados positivos y a reducir las que conducen a resultados negativos.
- Función de valor: mediante funciones de valor, un algoritmo de aprendizaje por repetición puede estimar las recompensas esperadas para todas las acciones. El cerebro utiliza mecanismos similares para evaluar las posibles recompensas y tomar decisiones.
- Exploración vs. Explotación: los agentes de RL equilibran la exploración (probar nuevas acciones) y la explotación (utilizar acciones conocidas que generan grandes recompensas). El cerebro también logra un equilibrio entre explorar nuevos comportamientos y confiar en las estrategias aprendidas.
Diferencias y avances
Aunque los algoritmos de aprendizaje automático se inspiran en las funciones cerebrales, existe una gran diferencia. Veamos algunas de ellas:
Complejidad
El mecanismo de aprendizaje del cerebro es más complejo y dinámico que los algoritmos de aprendizaje por repetición más sofisticados actuales. Un ejemplo de ello es la capacidad de nuestro cerebro para captar información procedente de fuentes dispares, adaptarse en tiempo real y funcionar con considerable flexibilidad.
Aprendizaje por transferencia
Los seres humanos pueden aprender y transferir los conocimientos adquiridos a nuevas situaciones, una propiedad que sigue siendo difícil para la mayoría de los sistemas de aprendizaje automático. En entornos o tareas nuevos, la mayoría de los algoritmos de aprendizaje automático requieren un reentrenamiento significativo.
Aprendizaje multimodal
El cerebro es un aprendiz multimodal que aprovecha diferentes estímulos y experiencias sensoriales para aprender de manera más eficaz. Sin embargo, incluso los sistemas de aprendizaje por repetición más avanzados se centran en un único tipo de interacción o entorno.
La simbiosis entre el aprendizaje permanente y la neurociencia
La conexión entre el aprendizaje a distancia y el cerebro es bidireccional . Los conocimientos de la neurociencia se integran en el diseño de algoritmos de aprendizaje a distancia. Esto da como resultado modelos más sofisticados que replican el aprendizaje inspirado en el cerebro. Por otro lado, las mejoras en el aprendizaje a distancia pueden facilitar un marco explicativo para modelar y simular la función cerebral (lo que ayuda a la neurociencia computacional).
Caso de uso: mejora de los sistemas de conducción autónoma con aprendizaje de refuerzo
Los algoritmos avanzados permiten a los vehículos autónomos navegar en entornos complejos, tomar decisiones inmediatas y mantener seguros a los pasajeros. Sin embargo, muchos de los algoritmos actuales funcionan mal en situaciones impredecibles.
Esto incluye flujos de tráfico inesperados, condiciones climáticas y un comportamiento de conducción errático de los conductores. Cada vez más, estas demandas requieren la capacidad de responder de manera similar a como lo haría un cerebro humano, lo que requiere una toma de decisiones adaptativa y dinámica. Solución Podemos agregar algoritmos de aprendizaje de refuerzo (RL) para imitar el aprendizaje humano y ayudar a mejorar el poder de toma de decisiones de nuestros sistemas de conducción autónoma. RL imita nuestro cerebro al aprender de las recompensas y adaptarse a nuevos escenarios. Esto le permite mejorar el rendimiento de estos sistemas en condiciones de conducción del mundo real.
El siguiente diagrama ilustra la iteración de nuestro sistema de conducción autónoma utilizando aprendizaje de refuerzo (RL).
El agente (vehículo autónomo) interactúa con el entorno, recibe retroalimentación a través de sensores y ajusta su comportamiento mediante algoritmos de aprendizaje automático. Al aprender y refinar continuamente su política, el sistema continúa mejorando la toma de decisiones y admite escenarios más complejos que mejoran aún más la seguridad y la eficiencia de la conducción.
Aprendizaje de refuerzo profundo
El aprendizaje por refuerzo profundo (DRL) es un potente conjunto de algoritmos para enseñar a los agentes cómo comportarse en un entorno mediante principios de aprendizaje profundo y aprendizaje por refuerzo. Este método permite que las máquinas aprendan mediante ensayo y error, como los seres humanos o cualquier otro organismo de este planeta.
Los principios que sustentan el DRL comparten similitudes con el proceso de aprendizaje del cerebro, por lo que podrían proporcionarnos pistas valiosas sobre la inteligencia artificial y biológica.
Paralelismos entre la luz diurna y el cerebro
Consideremos algunos paralelismos entre el aprendizaje por refuerzo profundo y el cerebro:
- Aprendizaje jerárquico: el cerebro y el aprendizaje de refuerzo profundo ejecutan el aprendizaje en múltiples niveles de abstracción. El cerebro procesa la información sensorial en etapas, donde cada etapa extrae características cada vez más complejas. Esto es paralelo a las redes neuronales profundas en DRL, que aprenden representaciones jerárquicas desde los bordes básicos (capas iniciales) hasta los patrones de alto nivel (capas más profundas).
- Asignación de créditos: uno de los desafíos tanto en el aprendizaje por refuerzo como en el cerebro es determinar qué acciones deben acreditarse como recompensas. Los circuitos de aprendizaje por refuerzo del cerebro, que involucran la corteza prefrontal y los ganglios basales, ayudan a atribuir el crédito por las acciones. El aprendizaje por refuerzo se ocupa de esto utilizando métodos como la retropropagación a través del tiempo y el aprendizaje por diferencias temporales.
- Generalización y transferencia de aprendizaje: el cerebro es experto en generalizar el conocimiento de un contexto a otro. Por ejemplo, aprender a andar en bicicleta puede facilitar el aprendizaje de una motocicleta. El aprendizaje directo de la lectura está empezando a lograr hazañas similares, con agentes que pueden transferir el conocimiento a través de diferentes tareas o entornos, aunque esto sigue siendo un área de investigación activa.
Avances y desafíos
El DRL ha avanzado mucho, pero aún está lejos de capturar el aprendizaje similar al del cerebro con todas sus complejidades. Las áreas en las que el DRL puede ofrecer mejoras incluyen la combinación perfecta de información multimodal (visión, audición y tacto). También incluye la solidez ante datos ruidosos o incompletos y su eficiencia en el aprendizaje a partir de experiencias limitadas. Mientras tanto, en la investigación del DRL, la neurociencia parece tener una influencia descomunal. Para mejorar el rendimiento del DRL, se están examinando nuevos enfoques como la neuromodulación (que imita la forma en que los neurotransmisores en el cerebro regulan el aprendizaje). Además, las redes de memoria aumentada intentan emular algunas cualidades únicas de la memoria humana.
Redes neuronales con picos
Las redes neuronales activas son un tipo de modelo neuronal que incluye la dinámica de las neuronas biológicas. En lugar de utilizar valores continuos para las activaciones neuronales como los modelos tradicionales, las redes neuronales activas se basan en picos o pulsos discretos. Estos picos se generan una vez que el potencial de membrana de la neurona supera un umbral determinado, como se muestra en la imagen siguiente. Estos picos se basan en los potenciales de acción de las neuronas biológicas.
Red neuronal con picos de eficiencia energética en IA ( fuente de la imagen )
Características principales de las redes neuronales de picos
Consideremos algunas características:
- Dinámica temporal: las redes neuronales segmentarias modelan el momento de los picos, lo que les permite rastrear patrones y dinámicas temporales que son fundamentales para comprender cómo se comporta el cerebro en una secuencia de eventos.
- Procesamiento basado en eventos: las neuronas de las redes neuronales supranucleares se activan solo cuando se produce una activación. Esta naturaleza fundamentalmente impulsada por eventos es eficiente y se asemeja más a la forma en que los cerebros biológicos procesan la información.
- Plasticidad sináptica: las redes neuronales supranucleares pueden modelar varias formas de plasticidad sináptica, entre ellas la plasticidad dependiente del momento de los picos (STDP, por sus siglas en inglés) . Este mecanismo ajusta la fuerza de las conexiones en función del momento de los picos, lo que refleja los procesos de aprendizaje en el cerebro.
Conexión con la neurociencia
Las redes neuronales de segundo orden tienen como objetivo reproducir el comportamiento de las neuronas biológicas mejor que las redes neuronales tradicionales. Actúan como modelo de los comportamientos neuronales y de sus acciones eléctricas al recibir y enviar impulsos en asociaciones dinámicas en el tiempo.
Ofrecen una ventana para que los investigadores comprendan cómo se codifica y procesa la información en las neuronas biológicas, lo que puede proporcionar información sobre cómo se codifica la información sensorial y cómo desempeña un papel en la regulación del aprendizaje y la memoria.
Las redes neuronales restringidas son fundamentales para la computación neuromórfica, cuyo objetivo es desarrollar hardware que imite la potencia y la eficiencia de nuestro cerebro. Esto permitirá contar con sistemas informáticos más versátiles y con un consumo energético más eficiente.
Aplicaciones de redes neuronales con picos
Las redes neuronales segmentadas pueden reconocer patrones en flujos de datos, como entradas visuales o auditivas. Están diseñadas para procesar y reconocer patrones temporales o flujos en tiempo real. Se utilizan para el procesamiento sensorial y el control motor en robótica. Están impulsadas por eventos, lo que las hace perfectas para la toma de decisiones en tiempo real, especialmente en entornos dinámicos. Las redes neuronales segmentadas también se pueden utilizar en interfaces cerebro-máquina para interpretar las señales neuronales para controlar dispositivos externos.
Caso de uso: mejora de las interfaces cerebro-máquina con redes neuronales de punta (SNN)
Las interfaces cerebro-máquina (BMI, por sus siglas en inglés) son sistemas que reconocen y traducen señales neuronales en instrucciones que pueden ser procesadas por un dispositivo externo. Tienen grandes posibilidades de investigación, como ayudar a personas con enfermedades neurológicas, mejorar las funciones cognitivas e incluso construir prótesis de última generación.
Las redes neuronales de punta (SNN) ofrecen una alternativa a los enfoques existentes que se han considerado menos eficientes para las BMI ideales. Están inspiradas en los mecanismos neuronales del cerebro. Nuestro objetivo es mejorar la precisión y la capacidad de respuesta de una BMI para controlar un brazo robótico solo mediante el pensamiento.
Solución
El diagrama a continuación puede describir el proceso.
El diagrama anterior representa un diagrama de flujo para el desarrollo de un sistema de Interfaz Cerebro-Máquina (BMI) mejorado con redes neuronales de picos (SNN). La primera fase es la codificación de señales neuronales con SNN que convierten señales cerebrales continuas en picos discretos. Esta codificación mejora la integridad de la señal y permite una mejor aproximación a la actividad cerebral real. Las siguientes etapas incluyen el procesamiento en tiempo real donde se decodifican la sincronización y el orden de estos picos. Esto permite controlar el brazo robótico con precisión con reactividad impulsada por la intención neuronal.
Después del procesamiento en tiempo real, el sistema puede adaptarse y aprender. Las SNN ajustan los pesos sinápticos de acuerdo con los movimientos del brazo robótico, optimizando así las respuestas de la red con una experiencia de aprendizaje. La última fase se centra en la integración de hardware neuromórfico, que imita el procesamiento de picos similar al del cerebro. Este hardware permite la eficiencia energética y el procesamiento en tiempo real. Esto da como resultado un mejor sistema BMI que puede comandar el brazo robótico de manera rápida y precisa. Finalmente, tenemos un método avanzado para diseñar BMI que utiliza el realismo biológico de las SNN para algoritmos más adecuados y adaptables.
Conclusión
La inteligencia artificial (IA) y la neurociencia son un área de investigación prometedora que combina ambos campos. La IA se refiere a la simulación de la inteligencia humana en máquinas diseñadas para tareas como el diagnóstico médico y el procesamiento del lenguaje natural. Los avances en hardware han visto una transición del aprendizaje automático al aprendizaje profundo, con una arquitectura inspirada en la neurología que aprovecha las estructuras neuronales orgánicas para lograr una computación más eficiente.
Las redes neuronales artificiales (RNA) son versiones artificiales de redes biológicas que cuentan con funcionalidades de inteligencia artificial muy impresionantes. Las RNN y CNN se inspiran en procesos del cerebro para reconocer patrones en datos secuenciales y procesamiento visual.
El aprendizaje por refuerzo (RL) imita el modo en que el cerebro aprende mediante ensayo y error, lo que tiene implicaciones para la conducción autónoma y otras áreas. El aprendizaje por refuerzo profundo (DRL) investiga más a fondo los procesos de aprendizaje de la IA. Las redes neuronales de impulsos (SNN) modelan con mayor precisión el comportamiento de las neuronas biológicas.