KI-Modelle werden heute oft in weit entfernten, leistungsfähigen Cloud-Rechenzentren abgearbeitet. Doch viele Nutzungsszenarien können vom lokalen Einsatz der KI im Embedded-Bereich profitieren. Hier kommt es maßgeblich darauf an, trotz eingeschränkter Ressourcen ausreichend Rechenleistung zur Inferenz energieeffizient zur Verfügung zu stellen. Universalprozessoren stoßen hier allerdings schnell an ihre Grenzen. Das Projekt "Automatisierte Übersetzung von KI-Modellen in Inferenzhardware" hat deshalb zum Ziel, eine Compiler-Infrastruktur zu entwickeln, die KI-Modelle automatisch in optimierte Inferenzhardware - insbesondere für FPGAs - übersetzt. Diese Arbeit setzt die automatische Hardwaregenerierung bereits für eine Teilmenge des KI-Modellformats ONNX um und demonstriert anhand der Übersetzung eines einfachen Neuronalen Netzes in Hardware auf einen Artix-7-FPGA die Funktionsweise, Leistungsfähigkeit und Energieeffizienz des Konzepts.