O Poder da Memória Associativa: Entendendo Como Nos Lembramos
Imagine ouvir os primeiros acordes de uma música antiga que você ama. Consegue lembrar o nome dela? Se sim, parabéns! Isso mostra o funcionamento da sua memória associativa, que permite que uma pequena informação, como algumas notas, traga à tona toda uma canção. Esse mecanismo é a chave para aprender, lembrar e resolver problemas em nosso dia a dia.
De acordo com o professor de engenharia mecânica da Universidade da Califórnia em Santa Bárbara, Francesco Bullo, a memória não está armazenada em uma célula única do cérebro. “É um efeito de rede”, explica. As memórias são armazenadas e recuperadas em uma rede dinâmica de neurônios, e esse processo é mais complexo do que parece.
Em 1982, o físico John Hopfield levou essa ideia da neurociência teórica para o campo da inteligência artificial. Ele criou a rede Hopfield, um modelo que ajuda a entender como armazenamos e recuperamos memórias. Esse modelo é uma das primeiras redes neurais recorrentes, capaz de encontrar padrões completos, mesmo em informações que estão bagunçadas. Em 2024, Hopfield recebeu o Prêmio Nobel por essa contribuição.
Porém, Bullo e seus colegas da Universidade de Pádua, na Itália, acreditam que o modelo tradicional de Hopfield é poderoso, mas não explica tudo. Eles afirmam que falta explorar como as informações externas influenciam a recuperação de memórias. “Os efeitos das entradas externas sobre as dinâmicas neurais e como elas ajudam na recuperação eficaz de memórias nunca foram muito explorados”, afirmam em um artigo publicado na revista Science Advances. Eles propõem um novo modelo que considera melhor a forma como buscamos e acessamos nossas memórias.
Bullo esclarece que os sistemas modernos de aprendizado de máquina, como os grandes modelos de linguagem, não representam memórias de forma verdadeira. “Você coloca um comando e recebe uma resposta, mas isso é diferente de como animais, por exemplo, entendem e lidam com memórias.” Embora esses modelos possam parecer inteligentes em suas respostas, eles carecem da experiência do mundo real que os seres vivos têm.
Betteti, um dos autores principais do artigo, complementa que nossa experiência do mundo é contínua, e não um ciclo de começar e reiniciar. Muitas pesquisas feitas sobre o modelo de Hopfield tratam o cérebro como uma máquina, mas o objetivo dos pesquisadores é desenvolver um modelo que parta da perspectiva humana.
A questão central para os teóricos é: como os sinais que recebemos do ambiente nos ajudam a recordar memórias?
Como Hopfield sugeriu, uma boa maneira de entender a recuperação de memórias é imaginar uma paisagem energética, onde os vales representam as memórias. A recuperação de memórias é como explorar essa paisagem: você reconhece algo quando cai em um dos vales. Sua posição inicial nessa paisagem é sua condição de partida.
“Imagine que você vê apenas a ponta do rabo de um gato”, disse Bullo. “Não vê o gato inteiro, apenas o rabo. Um sistema de memória associativa deveria conseguir recuperar a imagem do gato completo.” No modelo clássico de Hopfield, ver o rabo do gato (o estímulo) deve levá-lo ao vale chamado “gato”, mas a pergunta é: como você chegou até ali?
Bullo argumenta que o modelo clássico não explica claramente como ver o rabo do gato faz você se mover para o lugar certo e alcançar a memória. A forma de se movimentar nesse espaço de atividade neural, onde armazenamos memórias, não é muito clara.
A nova proposta dos pesquisadores, chamada de Plasticidade Dirigida por Entradas (IDP), visa esclarecer esse ponto. A ideia é que esse modelo integra lentamente informações novas e antigas, guiando o processo de recuperação até a memória correta. Em vez de seguir um algoritmo fixo, o IDP apresenta um mecanismo dinâmico e dirigido.
Bullo explica que, ao receber estímulos do mundo externo, como a imagem do rabo do gato, a paisagem energética muda ao mesmo tempo. “O estímulo facilita a paisagem para que, não importa onde você comece, você sempre chegue à memória correta do gato.” Além disso, o modelo IDP se mostra resistente a ruídos, ou seja, contextos onde a informação é confusa ou fragmentada. Ele utiliza o ruído para descartar memórias menos estáveis, focando nas mais sólidas.
Betteti complementa que quando observamos uma cena, nosso olhar se move entre diferentes elementos. Em cada momento, escolhemos onde focar, mesmo com muita informação em volta. Uma vez que você se fixa em um estímulo, a rede se ajusta para priorizá-lo.
A escolha do que focar, ou seja, a atenção, é fundamental em outra arquitetura de rede neural chamada transformer, que é a base de sistemas de linguagem, como o ChatGPT. Embora o modelo IDP comece de um ponto diferente e com um intuito distinto, Bullo vê potencial para esse novo modelo ajudar em futuras pesquisas em aprendizado de máquina.
“Vemos uma conexão entre os dois”, comentou Bullo. “O artigo descreve isso. Não é o foco principal, mas existe essa esperança de que esses sistemas de memória associativa e os grandes modelos de linguagem possam encontrar um ponto em comum.”
Essa discussão sobre memória e processo de recuperação é importante não apenas para entender como nos lembramos, mas também para expandir o uso da Inteligência Artificial. Conectar esses pontos pode resultar em sistemas mais sofisticados que se aproximem do jeito que nós, seres humanos, processamos e lembramos das coisas.
Nesse sentido, as pesquisas continuam a evoluir, buscando entender a complexidade de nossas memórias e como elas interagem com o mundo ao nosso redor. A jornada de descobrir e decifrar esses mistérios é longa, mas cheia de possibilidades.