Energi och minne: Ett nytt paradigm för neurala nätverk

by Albert

Lyssna på de första tonerna av en gammal, älskad låt. Kan du namnge melodin? Om du kan det, gratulerar – det är en triumf för ditt associativa minne, där en bit information (de första tonerna) utlöser minnet av hela mönstret (låten), utan att du faktiskt behöver höra resten av låten igen. Vi använder denna praktiska neurala mekanism för att lära oss, komma ihåg, lösa problem och i allmänhet navigera i vår verklighet.

”Det är en nätverkseffekt”, säger Francesco Bullo, professor i maskinteknik vid UC Santa Barbara, och förklarar att associativa minnen inte lagras i enskilda hjärnceller. ”Minneslagring och minnesåterhämtning är dynamiska processer som sker över hela nätverk av nervceller.”

1982 översatte fysikern John Hopfield detta teoretiska neurovetenskapliga begrepp till artificiell intelligens med formuleringen av Hopfield-nätverket. På så sätt skapade han inte bara en matematisk ram för att förstå minneslagring och minnesåterhämtning i den mänskliga hjärnan, utan utvecklade också ett av de första återkommande artificiella neurala nätverken – Hopfield-nätverket – känt för sin förmåga att återhämta kompletta mönster från brusiga eller ofullständiga indata. Hopfield tilldelades Nobelpriset för sitt arbete 2024.

Enligt Bullo och hans medarbetare Simone Betteti, Giacomo Baggio och Sandro Zampieri vid universitetet i Padua i Italien är den traditionella Hopfield-nätverksmodellen visserligen kraftfull, men den ger inte en fullständig bild av hur ny information styr minnesåterhämtningen.

”Det är anmärkningsvärt”, skriver de i en artikel publicerad i tidskriften Science Advances, ”att den externa inputens roll i stort sett är outforskad, från dess effekter på neurala dynamiker till hur den underlättar effektiv minnesåterhämtning.”

Forskarna föreslår en modell för minnesåterhämtning som de menar bättre beskriver hur vi upplever minnen.

”Den moderna versionen av maskininlärningssystem, dessa stora språkmodeller, modellerar inte riktigt minnen”, förklarar Bullo. ”Man matar in en prompt och får ett resultat. Men det är inte samma sätt som vi förstår och hanterar minnen i djurvärlden.”

Även om LLM kan ge svar som låter övertygande intelligenta, genom att utgå från de mönster i språket som de matats med, saknar de fortfarande den underliggande resonemangsförmåga och erfarenhet av den fysiska verkligheten som djur har.

”Vårt sätt att uppleva världen är mer kontinuerligt och mindre start-och-återställ”, säger Betteti, huvudförfattare till artikeln.

De flesta behandlingarna av Hopfield-modellen tenderade att behandla hjärnan som om den var en dator, tillade han, med ett mycket mekanistiskt perspektiv. ”Eftersom vi arbetar med en minnesmodell vill vi istället utgå från ett mänskligt perspektiv.”

Den huvudsakliga frågan som inspirerade teoretikerna var: När vi upplever världen omkring oss, hur gör de signaler vi tar emot det möjligt för oss att återhämta minnen?

Som Hopfield föreställde sig hjälper det att konceptualisera minnesåterhämtning i termer av ett energilandskap, där dalarna är energiminima som representerar minnen. Minnesåterhämtning är som att utforska detta landskap; igenkänning är när du faller ner i en av dalarna. Din startposition i landskapet är din initiala tillstånd.

”Tänk dig att du ser en katt svans”, sa Bullo. ”Inte hela katten, bara svansen. Ett associativt minnessystem borde kunna återställa minnet av hela katten.” Enligt den traditionella Hopfield-modellen räcker kattens svans (stimulus) för att placera dig närmast dalen märkt ”katt”, förklarade han, och behandlade stimulus som ett initialt tillstånd. Men hur kom du dit från början?

”Den klassiska Hopfield-modellen förklarar inte noggrant hur du genom att se kattens svans hamnar på rätt plats för att falla nerför backen och nå energiminimum”, sa Bullo. ”Hur rör du dig i det neurala aktivitetsutrymme där du lagrar dessa minnen? Det är lite oklart.”

Forskarnas modell för inputdriven plasticitet (IDP) syftar till att åtgärda denna brist på klarhet med en mekanism som gradvis integrerar tidigare och ny information och styr minnesåtervinningsprocessen till rätt minne. Istället för att tillämpa den tvåstegsalgoritmiska minnesåtervinningen på det ganska statiska energilandskapet i den ursprungliga Hopfield-nätverksmodellen, beskriver forskarna en dynamisk, inputdriven mekanism.

”Vi förespråkar idén att när stimulansen från den yttre världen tas emot (t.ex. bilden av kattens svans) förändras energilandskapet samtidigt”, säger Bullo. ”Stimulansen förenklar energilandskapet så att oavsett din initiala position rullar du ner till rätt minne av katten.”

Dessutom, säger forskarna, är IDP-modellen robust mot brus – situationer där ingången är vag, tvetydig eller delvis dold – och använder faktiskt bruset som ett sätt att filtrera bort mindre stabila minnen (de grundare dalarna i detta energilandskap) till förmån för de mer stabila.

”Vi utgår från det faktum att när du tittar på en scen flyttas din blick mellan de olika komponenterna i scenen”, säger Betteti. ”Så i varje ögonblick väljer du vad du vill fokusera på, men du har mycket brus omkring dig.”

När du väl har låst in den input du vill fokusera på, anpassar nätverket sig för att prioritera den, förklarar han.

Att välja vilken stimulans man ska fokusera på, även kallat uppmärksamhet, är också den huvudsakliga mekanismen bakom en annan neural nätverksarkitektur, transformatorn, som har blivit hjärtat i stora språkmodeller som ChatGPT. Även om IDP-modellen som forskarna föreslår ”utgår från en helt annan utgångspunkt med ett annat syfte”, säger Bullo, finns det stor potential för modellen att vara till hjälp vid utformningen av framtida maskininlärningssystem.

”Vi ser en koppling mellan de två, och det beskrivs i artikeln”, säger Bullo. ”Det är inte huvudfokus i artikeln, men det finns en fantastisk förhoppning om att dessa associativa minnessystem och stora språkmodeller kan förenas.”

Mer information: Simone Betteti et al, Input-driven dynamics for robust memory retrieval in Hopfield networks, Science Advances (2025). DOI: 10.1126/sciadv.adu6991

Related Articles

Leave a Comment