Development Tools für ADAS Design
Automotive Technologie Lösungen
Die Bildverarbeitung hat durch Deep Learning einen regelrechten Sprung in der Qualität als auch in der Robustheit erreicht. Somit können heute Objekterkennungen in Echtzeit durchgeführt werden. Unsere Technologie der Objekterkennung und Klassifizierung ermöglicht neue Anwendungsfälle für Fahrassistenzsysteme und autonomes Fahren.
Die Zukunft für Entwicklung von ADAS Use-Cases: Das vortrainierte EYYESNET oder Neuentwicklung durch unser optimiertes CNN Development & Training.

EYYESNET
Das EYYESNET ist ein neuronales Netz für die visuelle Objekterkennung aus Bildern, das die wichtigsten verkehrsbezogenen Klassen (Person, Fahrrad/Motorrad, Auto, LKW/Bus, Zug/Straßenbahn) für Lösungen im Automobil- und Bahnbereich abdeckt. Die Netzwerkarchitektur wurde für hohe Präzision und geringen Leistungsverbrauch optimiert, speziell für die Verwendung auf embedded Plattformen.
EYYESNET kann mit herkömmlichen KI-Inferenzmaschinen oder mit der leistungsstarken EYYES Layer Processing Unit verwendet werden. In einem 5-jährigen Trainingsprozess wurde mehr als 5 PB an realen Bilddaten sowie zusätzlich mehr als 10 PB an synthetischen Daten für unterschiedlichste Wetter- und Umgebungsbedingungen verwendet. Die laufende Weiterentwicklung und das Training des Netzes für weitere Anwendungen, Objekte und Umgebungsbedingungen, sichert den Anwendern unseres EYYESNET die stetige Verbesserung ihrer Anwendungen und Lösungen.
Erkennung von:
• Fußgängern (Erwachsene, Kinder, …)
• Radfahrern
• Rollstuhlfahrern
• Autos
• Lastwagen
• Züge
• Ampelsignalen

SIRIUS Software Framework
Mit dem modularen Software Framework SIRIUS von EYYES ist es in kurzer Zeit möglich, Prototypen für Videoverarbeitungssysteme umzusetzen. Enthalten sind Module für Deep Learning, in denen das EYYESNET oder andere neuronale Netze eingesetzt werden können. Diese Module können beliebig verknüpft und parametriert werden. Damit kann ein breites Spektrum unterschiedlichster Anwendungen des Frameworks dargestellt werden.
• Erfassung der Umgebung mittels 2D-3D Estimation
• Bildverarbeitungspipeline für Größenänderung, Drehung, Verbesserung, Aufnahme & Morphologie
• CNN-Berechnung und Segmentierung

CNN Development & Training
Unser Service-Angebot CNN Development und Training ist speziell auf die Bedürfnisse der Automotive-Industrie zugeschnitten. Mit der wachsenden Bedeutung von künstlicher Intelligenz und maschinellem Lernen im Fahrzeugbereich bietet unsere Technologie die Möglichkeit, leistungsstarke und präzise Convolutional Neural Networks (CNNs) zu entwickeln und zu trainieren.
Unser Ansatz optimiert den Entwicklungsprozess von CNNs, um eine schnellere und effizientere Implementierung zu ermöglichen. Mit unserer Toolchain nutzen wir fortschrittliche Optimierungswerkzeuge, mit wir die Architektur und Parameter der CNN-Modelle feinabstimmen können. Dies führt zu einer verbesserten Genauigkeit bei der Bilderkennung und ermöglicht uns, fortschrittliche Fahrerassistenzsysteme und andere innovative Funktionen zu entwickeln.
Unser Fokus liegt nicht nur auf der Entwicklung, sondern auch auf dem Training der CNN-Modelle. Wir bieten leistungsstarke Algorithmen und Ressourcen, um die Modelle mit einer großen Menge an Fahrzeugdaten zu trainieren. Dadurch wird die Zuverlässigkeit und Genauigkeit der CNNs deutlich verbessert.

CNN Optimierung
Mit der CNN Optimierung ist es möglich, bestehende Daten um den Faktor von bis zu 40 zu reduzieren, ohne die Qualität der Ergebnisse zu beeinträchtigen. Dieser Service kann individuell eingesetzt werden und ist nicht an einen Netzwerktyp gebunden. Die nahezu verlustfreie Verkleinerung des Netzes ermöglicht es, komplexe Aufgaben in einem eingebetteten System zu lösen.

Auto Annotation Service
Die EYYES Auto Annotation ist ein Service, die bis zu 90% des Aufwands für Datenannotation bei der maschinellen Datenerfassung für Objekterkennungsdatensätze einspart.
Eine Reihe hochqualitativer und hochkomplexer tiefer neuronaler Netze zur Objekterkennung wird verwendet, um Pseudolabels zu erzeugen, die dann durch einen innovativen Graphenalgorithmus verschmolzen und gefiltert werden. Die automatisch annotierten Bilder müssen nur noch manuell validiert werden. Die Entfernung von Bildduplikaten stellt sicher, dass die Qualität des endgültigen Datensatzes hoch bleibt, selbst wenn die Datenerfassungsstrategie nicht optimiert ist. Für die automatische Erfassung einer noch nicht unterstützten Objektklasse sind in der Regel nur einige Tausend manuell erfasste Bilder erforderlich, um die hochkomplexen Detektoren mit Transfer-Learning und modernen „few-shot-learning“ Mechanismen zu trainieren.
