KI ohne Cloud: Neuer Chip der TUM setzt auf lokale Intelligenz
Neuer KI-Chip der TUM arbeitet dezentral ohne Cloud – energieeffizient, sicher und inspiriert vom menschlichen Gehirn.

Prof. Hussam Amrouch zeigt den winzigen KI-Chip, der wie ein Mensch denken und ohne Cloud arbeiten kann.
Foto: Andreas Heddergott /TUM
Die Technische Universität München (TUM) hat einen neuartigen KI-Chip entwickelt, der ganz ohne Verbindung zum Internet oder zu Cloud-Servern funktioniert. Möglich wird das durch eine Architektur, die sich am menschlichen Gehirn orientiert. Der Chip „AI Pro“ wurde von Prof. Hussam Amrouch entworfen und bereits als Prototyp beim Halbleiterhersteller Global Foundries in Dresden gefertigt.
„Wir haben einen KI-Chip entwickelt, der kundenspezifische Lösungen ermöglicht“, erklärt Amrouch. Im Gegensatz zu universellen KI-Plattformen wie denen von Nvidia verfolgt sein Team einen fokussierten Ansatz. Der Chip soll spezifische Aufgaben direkt im Gerät selbst erledigen – ganz ohne Cloud.
Rechnen wie das Gehirn
Grundlage dieser neuen Chipgeneration ist das Prinzip des „hyperdimensional computing“. Dabei analysiert der Chip nicht Millionen von Datensätzen, wie es beim Deep Learning üblich ist. Stattdessen erkennt er Muster und Ähnlichkeiten zwischen Informationen. Er „versteht“ beispielsweise, dass ein Auto typischerweise vier Räder hat, sich auf der Straße bewegt und in verschiedenen Varianten auftreten kann.
„Auch Menschen abstrahieren und lernen durch Ähnlichkeiten“, so Amrouch. Dieser Lernansatz macht es möglich, Rechen- und Speichereinheit in einem Bauteil zu vereinen. Das spart Platz, erhöht die Effizienz und reduziert den Energiebedarf deutlich.
Was ist Hyperdimensional Computing?
Hyperdimensional Computing (HDC) ist ein rechnerischer Ansatz, der sich an der Funktionsweise des menschlichen Gehirns orientiert.
Statt präzise Einzelwerte zu verarbeiten, arbeitet HDC mit sogenannten hyperdimensionalen Vektoren – also Datendarstellungen in sehr hohen Dimensionen (oft 10.000+ Dimensionen).
Diese Vektoren repräsentieren Informationen nicht exakt, sondern als Muster, die robust gegenüber Störungen und Ausfällen sind. Das System erkennt Ähnlichkeiten und lernt durch Vergleichen statt durch aufwendiges Training mit riesigen Datenmengen.
Ein Beispiel: Um ein Auto zu erkennen, braucht ein HDC-System nicht Tausende Bilder. Es genügt, die Eigenschaften „vier Räder“, „Karosserie“, „bewegt sich auf der Straße“ in einen Vektor zu kodieren. Ähnliche Objekte werden dann über ihre Struktur identifiziert.
Der große Vorteil: Rechnen und Speichern erfolgen gemeinsam, was die Architektur besonders effizient macht. Zudem lässt sich HDC gut auf Hardware wie neuromorphen Chips implementieren.
Energie sparen durch neue Denkweise
Im Vergleich zu klassischen KI-Chips zeigt sich die Effizienz besonders deutlich beim Energieverbrauch. Für das Training einer einzigen Aufgabe benötigte „AI Pro“ nur 24 Mikrojoule – herkömmliche Chips verbrauchen dafür zehn- bis hundertmal mehr Energie. Das senkt nicht nur die Stromkosten, sondern auch den CO₂-Ausstoß.
Amrouch betont: „Dieser Mix aus moderner Prozessorarchitektur, Algorithmenspezialisierung sowie neuartiger Datenverarbeitung macht den KI-Chip zu etwas Besonderem.“ Dabei setzt das Team nicht auf maximale Rechenleistung, sondern auf zielgerichtete Optimierung für konkrete Aufgaben.
Datenschutz inklusive
Der Chip ist besonders interessant für Anwendungen, bei denen Datenschutz eine Rolle spielt. Wenn persönliche Daten – etwa Vitalwerte von Smartwatches – direkt im Gerät verarbeitet werden, müssen sie nicht über das Internet verschickt werden. Das erhöht die Sicherheit und reduziert die Abhängigkeit von stabilen Netzwerkverbindungen.
Auch für autonome Systeme wie Drohnen bietet der Chip Vorteile. Entscheidungen können vor Ort getroffen werden – schnell und unabhängig. Eine Cloud-Verbindung ist dafür nicht nötig.
Klassische KI vs. neuromorphe KI – Ein Vergleich | ||
Kriterium | Klassische KI | Neuromorphe KI |
Verarbeitung | In der Cloud, zentralisiert | Lokal im Gerät (Edge-Computing) |
Architektur | Getrennte Speicher- und Recheneinheiten | Vereinte Speicher- und Recheneinheiten |
Lernmethode | Deep Learning mit großen Datenmengen | Lernen durch Mustererkennung und Abstraktion |
Energieverbrauch | Hoch, abhängig von Serverlast | Sehr gering, da lokal verarbeitet wird |
Datensicherheit | Abhängig von Cloud-Anbieter | Sicher, da Daten im Gerät verbleiben |
Technisches Profil und Potenzial
Der Chip ist nur einen Quadratmillimeter groß, enthält etwa 10 Mio. Transistoren und kostet aktuell rund 30.000 € pro Exemplar. Zum Vergleich: Nvidia-Chips enthalten bis zu 200 Mrd. Transistoren. Doch das stört Amrouch nicht. Sein Fokus liegt auf spezialisierten Anwendungen, nicht auf Allzwecklösungen.
Die kompakte Bauweise macht den Chip für Geräte mit begrenztem Platzangebot attraktiv. Gerade im Bereich der eingebetteten Systeme – also bei Sensoren, Wearables oder kompakten Robotern – könnten solche KI-Prozessoren künftig zum Standard werden.
Ziel: KI ohne Abhängigkeiten
„Die Zukunft gehört den Menschen, die die Hardware besitzen“, sagt Amrouch. Er ist überzeugt, dass sich die KI-Entwicklung weg von zentralisierten Plattformen, hin zu dezentraler, nutzungsorientierter Hardware bewegen wird. Mit dem Chip „AI Pro“ geht er genau diesen Weg – und zeigt, dass künstliche Intelligenz auch ohne permanente Cloud-Anbindung funktionieren kann.
Ein Beitrag von: