
Das neue Computerspiel „Calculating at the speed of light“, das im Rahmen des europäischen Forschungsprojekts „PHOENICS“ entwickelt wurde, soll Kindern ab zwölf Jahren und jungen Erwachsenen naturwissenschaftliche Phänomene näherbringen. Das Spiel vermittelt Wissen über optische Chips und deren Bedeutung in der künstlichen Intelligenz (KI). Spieler lernen die Funktionsweisen von Lasern, Rechenoperationen und moderne Computerarchitekturen kennen. Die Universität Münster, die das Projekt koordiniert, berichtet, dass das Spiel kostenlos gespielt werden kann und unter folgendem Link verfügbar ist: phoenicsgame.
Besonders hervorzuheben ist der innovative Ansatz des Spiels, das in das Genre der „Serious Games“ eingeordnet wird. Es ist in vier aufeinander aufbauenden Levels strukturiert. Im ersten Level konstruieren die Spieler einen Laser und lernen die grundlegenden Bauteile kennen. Das zweite Level beschäftigt sich mit der Konstruktion eines photonischen Prozessors und vermittelt Wissen über Datentransfer und optisches Rechnen. Im dritten Level steht die Erstellung eines Rechenschemas zur Datenverarbeitung im Vordergrund, wo die Spieler Matrizenmultiplikationen erlernen. Schließlich trainieren die Nutzer im vierten Level eine KI zur Erkennung runder Formen. Begleitet wird das Spiel von einem fiktiven Dialog zwischen Albert Einstein und John von Neumann, zwei bedeutenden Persönlichkeiten der Wissenschaftsgeschichte, die jeweils entscheidende Beiträge zur Entwicklung des Lasers und der Informatik geleistet haben.
Forschung und Technologie hinter PHOENICS
Das PHOENICS-Projekt, das 2021 mit fast sechs Millionen Euro von der Europäischen Kommission im Rahmen des Horizont 2020 Programms gefördert wurde, hat sich zum Ziel gesetzt, energieeffiziente Petascale-Rechenleistungen mit ultrahoher Bandbreite durch photonisches Computing zu erreichen. Die Wissenschaftler streben an, das Mooresche Gesetz zu brechen, das besagt, dass sich die Rechenleistung alle zwei Jahre verdoppelt. Der Bedarf an Rechenleistung für KI-Anwendungen ist mittlerweile fünfmal höher als die prognostizierten Werte. Das Konsortium hinter PHOENICS umfasst führende Institutionen und Unternehmen wie die ETH Lausanne, IBM sowie mehrere Universitäten aus Europa, darunter Oxford und Gent, sowie das Fraunhofer Institut für Nachrichtentechnik.
Eine der Schlüsselinnovationen des Projekts sind photonische neuromorphe Prozessoren, die das Lernen des menschlichen Gehirns nachahmen. Diese neuen Hardwareansätze sind entscheidend für die Etablierung von Photonic Computing als wettbewerbsfähigen Ansatz für maschinelles Lernen. In-Memory-Computing, eine Technologie, die durch das PHOENICS-Projekt vorangetrieben wird, hebt die traditionelle Trennung zwischen Rechen- und Speichereinheiten auf, was die Datenverarbeitung beschleunigt und effizienter gestaltet. Am Fraunhofer HHI wird ein Teil des neuromorphen Prozessors zur Datenkodierung entwickelt, wobei eine hybride photonische Integrationsplattform zum Einsatz kommt.
Vergleich mit neuen Entwicklungen in der photonischen Hardware
Parallel zu den Entwicklungen im PHOENICS-Projekt arbeiten Wissenschaftler am MIT an photonischen Chips, die KI-Berechnungen mit Licht durchführen können. Diese Chips führen alle zentralen Operationen eines tiefen neuronalen Netzes direkt auf dem Chip durch und versprechen eine höhere Geschwindigkeit und Energieeffizienz als herkömmliche elektronische Hardware. Die MIT-Forscher haben spezielle nichtlineare optische Funktionsmodule entwickelt, die es ermöglichen, nichtlineare Operationen effizient auf ihrem Chip auszuführen. Solche Innovationen sind notwendig, um den wachsenden Anforderungen moderner Deep-Learning-Modelle gerecht zu werden.
Die Fortschritte im Bereich der photonischen Technologien, sowohl durch das PHOENICS-Projekt als auch durch Entwicklungen wie die des MIT, sind vielversprechend. Sie könnten nicht nur die Geschwindigkeit und Effizienz von KI-Anwendungen revolutionieren, sondern auch neue Maßstäbe in der Energieeffizienz im Computing setzen.