Dieser REKONFIGURIERBARE KI-CHIP KÖNNTE NACHHALTIGKEITSPROBLEME BEENDEN

DIESER REKONFIGURIERBARE KI-CHIP KANN NACHHALTIGKEITSFRAGEN SCHLIESSEN

Mit diesem KI-Chip müssen Sie nicht mehr jedes neue Telefonmodell kaufen.
Jetzt ist es an der Zeit, nicht mehr jedes Mal zu hetzen, wenn ein neues Smartphone-Modell auf den Markt kommt. Stellen Sie sich eine nachhaltigere Zukunft vor, in der Mobiltelefone, Smartwatches und andere tragbare Geräte nicht für ein neueres Modell zurückgestellt oder weggeworfen werden müssen.

MIT-Ingenieure haben mit einem LEGO-ähnlichen Design für einen stapelbaren, rekonfigurierbaren Chip für künstliche Intelligenz einen Schritt in Richtung dieser modularen Vision gemacht. Das Design umfasst abwechselnde Schichten von Sensor- und Verarbeitungselementen sowie Leuchtdioden (LEDs), die es den Schichten des Chips ermöglichen, optisch zu kommunizieren.

Andere modulare Chipdesigns verwenden herkömmliche Verdrahtung, um Signale zwischen Schichten zu leiten. Solche komplizierten Verbindungen sind schwierig, wenn nicht gar unmöglich, zu trennen und neu zu verdrahten, was solche stapelbaren Designs unkonfigurierbar macht.

Das MIT-Design verwendet Licht anstelle von physischen Drähten, um Informationen durch den Chip zu übertragen. Der Chip kann daher neu konfiguriert werden, wobei Schichten ausgetauscht oder gestapelt werden können, um beispielsweise neue Sensoren oder aktualisierte Prozessoren hinzuzufügen.

„Sie können so viele Ebenen von Berechnungen und Sensoren hinzufügen, wie Sie möchten, wie Licht, Druck und sogar Geruch“, sagt MIT-Postdoc Jihoon Kang. „Wir nennen dies einen LEGO-ähnlichen rekonfigurierbaren KI-Chip, weil er unendlich erweiterbar ist, je nachdem, wie die Schichten kombiniert werden.

Die Forscher wollen das Design auf Edge-Computing-Geräte mit autarken Sensoren und anderer Elektronik anwenden, die unabhängig von zentralisierten oder verteilten Ressourcen wie Supercomputern oder Cloud-basiertem Computing arbeiten. „Da wir in die Ära des Internets der Dinge eintreten, die auf Sensornetzwerken basiert, wird die Nachfrage nach multifunktionalen Edge-Computing-Geräten dramatisch steigen“, sagte Jeehwan Kim, außerordentlicher Professor für Maschinenbau am MIT. “Unsere vorgeschlagene Hardwarearchitektur wird in Zukunft eine hohe Vielseitigkeit des Edge-Computing bieten.”

Das Design des Teams ist derzeit so konfiguriert, dass grundlegende Bilderkennungsaufgaben ausgeführt werden. Dies geschieht durch die Schichtung von Bildsensoren, LEDs und Prozessoren aus künstlichen Synapsen – Arrays von Speicherwiderständen oder „Memristoren“, die das Team zuvor entwickelt hat und die zusammen als physisches neuronales Netzwerk oder „Gehirn-auf-einem-Chip“ fungieren .” Jedes Array kann darauf trainiert werden, Signale direkt auf einem Chip zu verarbeiten und zu klassifizieren, ohne dass externe Software oder eine Internetverbindung erforderlich sind.

In ihrem neuen Chipdesign kombinierten die Forscher Bildsensoren mit künstlichen Synapsen-Arrays, die sie jeweils darauf trainierten, bestimmte Buchstaben zu erkennen – in diesem Fall M, I und T.

Während ein herkömmlicher Ansatz die Signale eines Sensors über physische Drähte an einen Prozessor weiterleiten würde, stellte das Team stattdessen ein optisches System zwischen jedem Sensor und dem künstlichen Synapsen-Array her, um die Kommunikation zwischen den Schichten zu ermöglichen, ohne dass eine physische Verbindung erforderlich wäre.

„Andere Chips sind physisch durch Metall verdrahtet, was es schwierig macht, sie neu zu verdrahten und neu zu gestalten. Sie müssten also einen neuen Chip herstellen, wenn Sie eine neue Funktion hinzufügen wollten“, sagt MIT-Postdoc Hyunseok Kim. „Wir haben diese physische Kabelverbindung durch ein optisches Kommunikationssystem ersetzt, das uns die Freiheit gibt, Chips zu stapeln und hinzuzufügen wir bitte.”

Das optische Kommunikationssystem des Teams besteht aus gepaarten Fotodetektoren und LEDs, die jeweils mit winzigen Pixeln gemustert sind. Fotodetektoren bilden einen Bildsensor zum Empfangen von Daten, und LEDs übertragen Daten an die nächste Schicht.

Wenn ein Signal (z. B. das Bild eines Buchstabens) den Bildsensor erreicht, kodiert das Lichtmuster des Bildes eine bestimmte Konfiguration von LED-Pixeln, die wiederum eine weitere Schicht von Fotodetektoren stimuliert, zusammen mit einem künstlichen Synapsen-Array, das das klassifizierte Signal liest von Muster und Intensität des einfallenden LED-Lichts.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.