Das Institut für Grundlagen der Informationsverarbeitung der TU Graz und Intel Labs haben erstmals experimentell nachgewiesen, dass ein großes neuronales Netz Sequenzen (wie bspw. Sätze) auf neuromorpher Hardware um das vier- bis sechzehnfache effizienter verarbeiten kann, als auf herkömmlicher Hardware. Die neuen Forschungsergebnisse basieren auf dem neuromorphen Forschungschip Loihi (erste Generation) der Intel Labs. Loihi nutzt Erkenntnisse der Neurowissenschaften, um Chips nach dem Vorbild des biologischen Gehirns zu schaffen. Die Forschungsergebnisse wurden nun in Nature Machine Intelligence publiziert.
Das menschliche Gehirn als Vorbild
Smarte Maschinen und intelligente Computer, die selbstständig Objekte und Beziehungen zwischen verschiedenen Objekten erkennen und daraus schlussfolgern können, sind Gegenstand der weltweiten Artificial-Intelligence(AI)-Forschung. Der Energieverbrauch ist ein Haupthindernis auf dem Weg zu einer breiteren Anwendung solcher AI-Methoden. Einen Schub in die richtige Richtung erhofft man sich von neuromorpher Technologie. Sie hat das menschliche Gehirn zum Vorbild, das Weltmeister in Sachen Energieeffizienz ist: Für das Verarbeiten von Informationen verbrauchen seine hundert Milliarden Neuronen nur etwa 20 Watt und damit nicht wesentlich mehr Energie, als eine durchschnittliche Energiesparlampe.
In seiner Arbeit konzentrierte sich das Team von TU Graz und Intel Labs auf Algorithmen, die mit zeitlichen Prozessen arbeiten. So musste das System beispielsweise Fragen zu einer zuvor erzählten Geschichte beantworten und die Beziehungen zwischen Objekten oder Personen aus dem Kontext erfassen. Die getestete Hardware bestand aus 32 Loihi-Chips.
Loihi Chip: bis zu sechzehnmal energieeffizienter als nicht-neuromorphe Hardware
„Unser System ist vier- bis sechzehnmal energieeffizienter als andere AI-Modelle auf herkömmlicher Hardware “, so Philipp Plank, Doktorand am TU Graz-Institut für Grundlagen der Informationsverarbeitung. Plank erwartet weitere Effizienzsteigerungen, wenn diese Modelle auf die nächste Generation der Loihi-Hardware migriert werden, die die Leistung der Chip-zu-Chip-Kommunikation deutlich verbessert.
"Intels Loihi-Forschungschips versprechen Fortschritte in der AI, insbesondere durch die Senkung der hohen Energiekosten", sagte Mike Davies, Direktor des Intel Neuromorphic Computing Lab. "Unsere Arbeit mit der TU Graz liefert weitere Beweise dafür, dass die neuromorphe Technologie die Energieeffizienz heutiger Deep-Learning-Workloads verbessern kann, indem ihre Implementierung aus der Perspektive der Biologie neu überdacht wird."
Nachahmung des menschlichen Kurzzeit-Gedächtnisses
In ihrem Konzept bildete die Gruppe eine vermutete Methode des menschlichen Gehirns nach, wie Wolfgang Maass, Doktorvater von Philipp Plank und emeritierter Professor am Institut für Grundlagen der Informationsverarbeitung erklärt: „Simulationen lassen darauf schließen, dass ein Ermüdungsmechanismus einer Untergruppe von Neuronen für das Kurzzeit-Gedächtnis wesentlich ist.“
Das Netzwerk muss nur testen, welche Neurone gerade ermüdet sind, um zu rekonstruieren, welche Informationen es vorher verarbeitet hat. Mit anderen Worten: Vorherige Information wird in Nicht-Aktivität von Neuronen gespeichert, und Nicht-Aktivität verbraucht die geringste Energie.
Finanziell unterstützt wurde diese Forschung durch Intel sowie durch das europäische Human Brain Project, das Neurowissenschaften, Medizin und vom Gehirn inspirierte Technologien aus dem EU-Raum miteinander verbindet. Hierfür wurde die digitale Forschungsinfrastruktur EBRAINS ins Leben gerufen. An der TU Graz ist diese Forschung in den Fields of Expertise „Human and Biotechnology“ und „Information, Communication & Computing“ verankert, zwei von fünf Stärkefeldern der Universität.