Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Intro: Digital Kompakt. Heute aus dem Bereich Künstliche Intelligenz. Mit deinen Moderatoren Rasmus Rothe und Jasper Masemann. Los geht's.
Jasper Masemann: Hallo und herzlich willkommen zu einer weiteren Folge von AI Unplugged von Digital Kompakt. Mein Name ist Jasper Masemann. Ich bin Partner beim Venture Capital Fonds AV Capital in Berlin und ich investiere gerne in Software und KI.
Rasmus Rothe: Hallo, ich bin Rasmus Rothe und Gründer von Merantix, einem Venture Studio für Künstliche Intelligenz. Mein Background davor war in der KI-Forschung.
Jasper Masemann: Das Thema heute ist ein neues Thema, nämlich Hardware. Wir haben ja bisher sehr viel über KI an sich und Anwendungen gesprochen und wir wollen jetzt mal verstehen, was eigentlich der Zusammenhang oder die Rolle von Hardware zur künstlichen Intelligenz ist. Wir haben ja früher schon mal das Thema angesprochen, KI ist sehr rechenintensiv und Hardware kann hier einiges an Vorteilen bringen, wenn man natürlich die richtige Hardware anwendet. Aber worauf sollte man da achten?
Rasmus Rothe: Ja, und dafür haben wir eigentlich den perfekten Gast heute hier. Gilles Backhus hat Elektrotechnik an der TU München studiert, war kurz bei Audi und BMW und dann als AI-Lead bei Konux. Konux hat Predictive Maintenance für Bahnschienen und Weichen vor allem revolutioniert, war dann kurz bei Lilium, dem Drohnen-Startup und hat damit natürlich sehr viel Erfahrung an der Schnittstelle von Hardware und KI. Seit 2017 ist er dann Gründer und Head of AI bei Rekognize. Was macht Rekognize genau? Erzähl mal.
Gilles Backhus : Yo, hi, grüßt euch. Recognize hat angefangen vor vier Jahren. Ganz am Anfang hatten wir erstmal das Ziel, lasst uns mal zusammenkommen, lasst uns mal mit einem weißen Papier anfangen und wirklich überlegen, wie kann man den schnellsten AI-Chip für eine genaue Anwendung, die ich dann gleich erkläre, entwickeln. Ganz am Anfang waren es nicht-autonome Fahrzeuge, dieser Fokus kam erst später. Am Anfang haben wir gesagt, Neural Networks werden ja trainiert oder ausgeführt, diese beiden Modi gibt es quasi. Unser Chip ist für das Ausführen eines schon trainierten Neural Networks. Das ist natürlich ganz relevant in autonomen Fahrzeugen, aber potenziell auch in anderen Anwendungen. Das möglichst performant zu machen, möglichst genau zu machen, schnell zu machen, möglichst wenig Strom dabei zu verbrauchen. All das waren quasi unsere Ziele. Auch eine kleine Latenz zu haben, also quasi eine kleine Verzögerung von es passiert. etwas in der realen Welt, meine Image-Sensoren sehen das. und wann habe ich jetzt fertig die Intelligenz berechnet. All diese Sachen wollten wir revolutionieren, wollten wir viel schneller als die Platzhirsche, als die Konkurrenz machen.
Jasper Masemann: Wenn du jetzt mal vielleicht für unsere Zuhörer deine Motivation nochmal beschreibst, sogar noch einen Schritt früher. Wieso will man sowas, wenn man da diese ganzen großen Hardwarehersteller da draußen sieht? Wie kommt man überhaupt auf so eine Idee, so bold zu sein?
Gilles Backhus : Also die Idee wurde, muss ich fairerweise sagen, an mich herangetragen durch meine werten Mitgründer, die auf mich zukamen und gemeint haben, hey, wir müssen noch ein AI-Team in Europa aufbauen. Tatsächlich hatte auch ich schon lange davor immer wieder mit dem Gedanken gespielt, für Machine Learning Anwendungen extra einen Chip zu entwickeln. Ich habe nämlich davor länger auf FPGAs, was so flexiblere Chips, die aber dann weniger effizient sind, lange darauf Machine Learning Algorithmen appliziert. Machine Learning an sich ist erstmal super faszinierend. Ich denke, jeder, der da irgendwann in diese Das Feld einsteigt, ist erst mal vom Hocker gehauen, wie faszinierend das ist, was man damit erreichen kann. Chips wiederum finde ich auch sehr faszinierend, hat mich schon immer fasziniert, schon als Sechsjähriger, weil es wie ein Autobahnnetz an superintelligenten Strömen ist und hoch optimiert. Und man kann mit einem kleinen Chip, der jetzt wie bei uns zum Beispiel gerade mal 10 Watt verbraucht, die Leistung erreichen, was vor 20 Jahren noch der schnellste Supercomputer der Welt wäre. Das war einfach so meine Grundmotivation. Das ist womöglich auch immer noch die Motivation für mich, morgens aufzustehen.
Rasmus Rothe: Wieso ist das speziell für KI so wichtig? Weil es gab ja auch schon vorher rechenintensive Anwendungen und Chips, die auf bestimmte Anwendungen spezialisiert waren. Also was ist da nochmal das Spezielle für im Bereich KI?
Gilles Backhus : Der Rechenaufwand ist schon mal riesig, das muss man einfach erstmal sagen. Und es ist allerdings auch sehr gut, Hardware zu gießen, kann man sagen, weil es sehr repetitive Operationen sind. Also ein Neural Network, was erstmal sehr grandios klingt, im Endeffekt passiert da ein und die gleiche Sache, weiß nicht, 25 Millionen Mal. wenn man eine Struktur sehr intelligent auslegt, in einer Chip-Architektur eben, dann kann man das sehr gut optimieren. Und das ist einfach bisher nicht so stark passiert. Es gibt natürlich schon die Platzhirsche wie Nvidia und so. Also wir haben 2017 angefangen, da gab es natürlich Nvidia auch schon. Und die hatten natürlich auch schon eine Reihe an Grafikkarten, die für KI-Training schon missbraucht wurden, wenn man das vielleicht extrem ausdrücken will. Aber die sind ja auch optimiert auf ganz viele andere Workloads wie Grafikanwendungen und so weiter. Und jetzt einen Chip zu machen, der wirklich nur für KI ist, das gab es so bis dahin jetzt noch nicht. Ja, jetzt natürlich gibt es noch ein paar andere, die das auch gemacht haben.
Jasper Masemann: Du sagtest ja sehr generell natürlich jetzt und du meintest schon, ihr seid Richtung autonomes Fahren gegangen an einem Punkt. Könnt ihr vielleicht kurz beschreiben, wie dieser Pfad war? Also man fängt an und sagt, wir wollen es besser machen und dann findet man irgendwann seinen Bereich.
Rasmus Rothe: Wie kommt sowas?
Gilles Backhus : Ja, im Endeffekt bei uns durch Gespräche auf einer Konferenz tatsächlich. Also die European Computer Vision Conference, ECCV, war Ende 2018 in München zufälligerweise. Ich und mein erster Kollege waren natürlich auch hier, sind auf die Konferenz gegangen. Dann haben wir mit Firmen wie BMW oder Continental gesprochen. die dort vor Ort waren und haben die gefragt, hey, was würdet ihr eigentlich mit einem Chip wie unserem machen? Und dann hat sich das recht schnell nach oben eskaliert bis hin zu den Venture-Capital-Armen dieser Firmen. Und dann hat es eigentlich auch gar nicht mehr so viele Monate gedauert, bis ein Investmentinteresse auf dem Tisch lag. Davor hatten wir auch andere Ideen, wie zum Beispiel im Surveillance-Bereich viel zu automatisieren. Das ist auch ein riesiger Markt. Ist nochmal eine ganz andere Geschichte, extrem fragmentierter Markt und man müsste Sales komplett selber machen. Das war einfach unattraktiver für ein Startup. Und genau, autonomes Fahren war damals wie heute ein Feld, wo extrem viel vorangeht, wo auch Geld da ist, Investitionsgeld da ist, wo auch das Interesse da ist, dass selbst alte Firmen wie Volkswagen, Daimler und so weiter durch Druck von Tesla und so weiter.
Rasmus Rothe: Was ist das größte Bottleneck auf der Seite der Automobilhersteller solch an Chips einzusetzen? Ist das der Stromverbrauch? Ist es die Chips, die es gibt, die zu langsam sind? Ist es die Größe?
Gilles Backhus : Alle Aspekte. Also erstmal der Preis. Ja, so ein Nvidia-Chip, der ist schon saftig teuer, muss man sagen. Mobileye ist das. eher günstiger. Mobileye wiederum ist auch sehr unattraktiv geworden, weil es eine Blackbox ist. Also Mobileye gehört ja zu Intel. Ja, es ist eine Blackbox. Das heißt, da läuft ein Algorithmus drauf, an dem du nicht wirklich was ändern kannst und du musst quasi mit der Performance dieses Algorithmus leben. Das ist auch, was Mobileye angeht, sehr unattraktiv. Ansonsten steht Mobileye gar nicht so schlecht da, weil sie zum Beispiel auch nicht so viel Strom verbrauchen. bei Bei Nvidia hast du wiederum das Problem, du bist da flexibler, welche Algorithmen du drauf laufen lassen kannst. Das heißt, auch ein VW oder ein Conti können da mit ihren KI-Teams Algorithmen entwickeln und darauf applizieren. Aber es verbraucht sehr viel Strom. Das heißt, es muss eventuell sogar aktiv gekühlt werden im Auto. Das ist wiederum eine Integrationsherausforderung, die viele nicht machen wollen. Wenn du dann irgendwann, wie es bei Nvidia ja auch der Fall ist, vielleicht schon bei einem halben Kilowatt an Stromverbrauch bist, geht das irgendwann von der Rechnung her auch die Reichweite von so einem Elektrofahrzeug mit rein. Alle Aspekte spielen da eine Rolle und da haben wir versucht, nicht nur einen schnelleren Chip oder nicht nur einen effizienteren, sondern ein bisschen so eine eierlegende Wollmilchsau zu kreieren.
Rasmus Rothe: Lass uns da doch auch nochmal tiefer reingehen, weil alle unsere Zuhörer kennen Computerchips und wissen, wie die aussehen, aber ich glaube, die wenigsten wissen, wie so die Entwicklungsschritte aussehen davon. Also wie fängt man da an, wenn man sagt, ich will jetzt so einen Chip bauen? Was sind so die ersten Schritte? Wie lange dauert jeder Schritt? Was braucht man dafür für Leute? Was braucht man für Partner? Das ist ja ziemlich spannend.
Gilles Backhus : Da bin ich jetzt wahrscheinlich bei uns in der Firma nicht der Allerbeste, den man das fragen kann, aber ich werde es mal versuchen. Also wir haben Leute bei uns.
Rasmus Rothe: Aber der Beste von uns drei, glaube ich.
Gilles Backhus : Das vielleicht schon. Genau. Nochmal zu unserer Aufstellung. Wir haben ja unser Chip-Team in den USA und unser AI-Team hier. Ich bin natürlich hier in Deutschland, München verankert. Drüben haben wir wirklich Leute, die haben schon 25 Chips in ihrem Leben gemacht. Meistens, oder zumindest bei uns war es so, du hast erst mal am Anfang ein paar Grundthesen. Also bei uns war es zum Beispiel, wir haben gesehen, okay, neuronale Netze, die machen zwei Operationen immer wieder. Multiplikation und Addition. Additionen sind in Hardware schon ziemlich billig. Okay, das passt. Multiplikationen, da kann man was machen. Das heißt, dann haben wir erst mal ein eigenes numerisches System quasi, also ein Zahlensystem entwickelt, mit dem wir jetzt ein bisschen anders rechnen. Wir machen effektiv immer noch die gleiche Mathematik, Aber wir können jetzt Multiplikation effektiv viel sparsamer in Sachen Energieverbrauch und Area on Chip durchführen. Die nächste These war, wir möchten nicht so viel Speicher bewegen. Immer wenn du Speicher bewegst, verbrauchst du super viel Strom. Also wenn man sich zum Beispiel Chips von Google, Nvidia oder Intel in dem Bereich anguckt, 95% teilweise des Stromverbrauchs kommt gar nicht mal von der Berechnung an sich, sondern davon, dass man Daten von A nach B und wieder zurück nach A bewegt. Das wollten wir wiederum reduzieren, indem wir ein Komprimierungsverfahren entwickelt haben, was wir dann so auch nativ auf der Hardware implementiert haben. Und dann hatten wir noch eine dritte Grundthese, dass wir quasi sehr nah am Sensor sitzen, dadurch die Latenz verringern, auch da wieder Strom einsparen, so ein paar Man in the Middle quasi rausnehmen. Ja, und dann fängst du an, dir natürlich erstmal die richtigen Ressourcen, was benötigst. Am Anfang einfach die Menschen sind, zusammenzukarren und vielleicht bleibst du anfangs erstmal auf einem rein mathematischen Level. Ich meine, bei unserem Chip geht es ja viel um Mathematik, das ist jetzt kein Networking-Chip oder so und versuchst erstmal deine ganzen Thesen zu überprüfen, die ganze Mathematik zu dich dringen. Irgendwann geht es dann weiter, dass du vielleicht schon so System C-Code schreibst, wo du schon sehr hardwarenahe Zyklen einer digitalen Hardware simulieren kannst. Und dann irgendwann geht es halt, dass du Hardware Description Languages, also das sind auch quasi Programmiersprachen, verwendest wie Verilog oder VHDL. Und in diesen Sprachen beschreibst du dann schon wirklich das, was du am Ende natürlich nochmal mit ein paar Schritten wirklich in einen Chip gießen kannst. Am Ende hast du dann deinen Bauplan, wenn du so willst, wie so einen Architekturplan für ein Haus. Und das schickst du dann eben an den Chip Manufacturer. Bei uns war das TSMC, der größte Hersteller der Welt. Entscheidest dich für ein Fertigungsverfahren. Bei uns waren es 7 Nanometer. Ja, und dann musst du nochmal so drei bis vier Monate warten und kriegst dann deinen ersten Chip zurück. So ungefähr funktioniert das, ja.
Rasmus Rothe: Sehr spannend. Und wo steht ihr jetzt gerade? Also habt ihr schon die ersten Chips oder kommen die bald?
Gilles Backhus : Die kommen tatsächlich bald, ja. Also wir haben gerade eine ganz spannende Phase, weil Ende diesen Monats kriegen wir unseren ersten Chip von der Produktion zurück. Bisher läuft alles nach Plan. Das große Coming Out wird dann verschiedenen Schritten die nächsten Monate passieren. Also ab Juli bis wahrscheinlich Januar oder so werden wir dann das Ganze nach und nach hochfahren und irgendwann wirklich die komplette Performance und alle Applikationen, die wir laufen lassen wollen, demonstrieren können.
Rasmus Rothe: Okay, cool. Das heißt, es kommt jetzt ein Chip per Post oder kommt ein paar Dutzend und dann testet ihr die und guckt, ob die wirklich so performen, wie ihr das geplant habt?
Gilles Backhus : Ja, also ich glaube, wir werden so ein paar 100 bekommen. Bei der Chipproduktion muss man auch immer sagen, man kann zwar vorher schon wissen, wie viele Chips werde ich fertigen, aber du weißt nicht vorher sicher, wie viele Chips davon noch funktionieren werden. So eine Produktion, gerade in neueren Standards, 7 Nanometer ist jetzt mittlerweile schon ein bisschen gereift, aber in neueren Standards hast du teilweise, gerade bei größeren Chips, vielleicht eine Ausbeute von nur 5%. Also du produzierst 100 Chips und nur 5 davon funktionieren, weil einfach diese Herstellungsverfahren mittlerweile so komplex sind, dass nur ein kleiner Fehler passieren muss, ein Transistor funktioniert da nicht, dann kann schon gleich ein ganzer Bereich auf einem Chip nicht funktionieren und dann kannst du das Ding nicht gebrauchen. Bei uns ist es ein sehr kleiner Chip, das heißt, du hast da schon mal eine viel höhere Wahrscheinlichkeit, dass du viele findest, die funktionieren und es ist auch ein etwas ausgereifteres Verfahren. Das heißt, es werden wahrscheinlich annähernd alle Chips, die wir jetzt produzieren lassen, auch funktionieren. Wie viele Chips man dann am Ende bekommt, ist auch gar nicht so. die Kostenfrage. Die großen Kosten passieren ja dadurch, dass man diese Belichtungsmasken quasi einmal fertigen lässt. Das sind die Millionen an Dollars, die du da reinstecken musst. Wenn wir dann irgendwann sagen, okay, jetzt möchten wir nochmal 100 Chips, dann sind das deutlich niedrigere Kosten.
Jasper Masemann: Cool, aber das heißt ja, wenn die Leute den Podcast hören, also die Zuhörer jetzt, die können dann bei euch bestellen, wahrscheinlich einen Monat später, das ist doch hervorragend. Du hast es am Anfang schon angesprochen, ihr habt natürlich Konkurrenz und jeder deckt da irgendwie seinen Bereich ab und ihr habt wahrscheinlich in der Entwicklung mit euren Hypothesen, aber danach auch euch angeschaut, was die Konkurrenz tut. Wie werdet ihr euch da jetzt behaupten wollen? Also ohne, dass wir natürlich jetzt alle Geheimnisse ausplaudern wollen, aber wie positioniert ihr euch da? Vielleicht ein bisschen Marketing, wie macht man sowas als Chiphersteller, als Hardwarehersteller?
Gilles Backhus : Ich würde es mal versuchen, einigermaßen schnell so zusammenzufassen. Wir wollen der Automobilbranche ermöglichen, Algorithmen von heute, vielleicht auch von morgen, also quasi die gerade durch ein Stanford-Paper rausgekommen sind, in einem Auto laufen lassen zu können. Aktuell ist das nicht wirklich möglich, weil du hast einmal diese Blackbox von Intel, die sowieso dich nicht irgendwas laufen lassen lässt, worauf du jetzt Lust hast. Oder du hast Nvidia, das könntest du theoretisch hernehmen, aber dann hättest du wahrscheinlich nicht nur einen Chip, sondern viele Chips, um sehr, sehr große Algorithmen auf 8 Megapixel mit 60 Bildern pro Sekunde laufen zu lassen. Und dann wären wiederum die Kosten so hoch, dass du es vielleicht gerade mal in einem Bugatti oder in einem Audi A8 oder in einer S-Klasse verbauen könntest. Es geht ja ein bisschen auch aktuell einfach um diese Demokratisierung von Autonomous Drive. Ich glaube, jeder hat mittlerweile verstanden, wenn du extrem teure LiDAR-Sensoren usw. und mega fette Hardware von Nvidia in der S-Klasse packst und dann irgendwie daraus so ein Autonomous Drive Package für 20.000 machst, dann können sich das vielleicht auch jetzt schon ein paar Leute holen. Gut, dann gibt es noch ein paar rechtliche Hürden, die wir noch zu überwinden haben, aber da kannst du dann schon einiges erreichen heutzutage. Aber was ist mit dem VW Polo? Was ist mit dem Transporter? Was ist mit LKWs usw.? ? Da muss man einfach eine Lösung schaffen, die economically more feasible ist. Und darum geht es im Endeffekt bei uns. Der Chip ist nicht sehr groß. Von der Größe des Chips leiten sich die Kosten auch ziemlich direkt ab. Zumindest was die Herstellungskosten des Chips angeht. Dann wirst du massig Rechenpower haben. 1000 Trillionen Operationen pro Sekunde, wenn ich jetzt nicht falsch liege. Also 1000 Tera Operations per Second wird ein Chip haben. Und du könntest von diesem Chip sogar mehrere pro Auto verbauen. Das würde immer noch nicht den Rahmen sprengen. Und dann hast du eben so viel Rechenpower, dass du halt wirklich zum Beispiel Objekterkennung machen kannst. Das heißt, selbst wenn du mit 200 kmh auf der Autobahn unterwegs bist, kannst du trotzdem schon ziemlich zuverlässig und robust das Auto vor dir erkennen, was irgendwie da zwei Kilometer vor dir liegt. Genauso kannst du im Urban-Bereich, wenn du mit dem Auto an der Fußgängerzone vorbeifährst, wo überall fünf Schulklassen rumspringen, hast du auch wiederum genügend Rechenpower, vielleicht 100 Personen gleichzeitig erkennen und tracken zu können.
Jasper Masemann: Mal Richtung Go-to-Market, ich meine, jetzt entwickelt ihr Hardware, das dauert ein bisschen. Autoentwicklung ist ja, glaube ich, auch nicht der schnellste Prozess, der wird sicherlich schneller. Wie stellt ihr euch da als Firma auf, dass ihr da auch vom Timing her, ich stelle mir das ja wahnsinnig kompliziert vor, wie viel Risiko ihr da gleichzeitig mit versus einem Software-Startup oder, keine Ahnung, jemand, der Kleidung online verkauft.
Gilles Backhus : Also da haben wir einmal, muss ich sagen, Glück, dass wir Investoren haben, die das verstehen. Also wenn man anguckt über die Pressemeldung, welche Investoren wir drin haben, das sind sieben, acht oder neun oder so Investoren aus dem Automobilbereich. Die kennen natürlich diese Zyklen. Da sind wir sogar nicht selten noch ambitionierter als das, was die sich vorstellen. Was sich da vielleicht lohnt, kurz zu erwähnen, ist ja ein bisschen diese Erfolgsstory, die Tesla hatte mit diesem berühmten Herrn Jim Keller, den sie reingeholt hatten. Und vom Tag der Anstellung bis dann wirklich, was war das, das Model 3, glaube ich, am Anfang erstmal, diese neue Hardware-Plattform von Tesla mit deren eigenem Chip drin hatte, sind gerade mal dreieinhalb Jahre vergangen. Also from hiring to start of production. Ja, dreieinhalb Jahre nur. Das ist eine Geschwindigkeit, die für Riesen in der Automobilbranche scheinbar undenkbar sind. Aber sowas ist möglich. Vielleicht wäre es ein bisschen länger, weil Tesla, muss man auch fairerweise sagen, denen war es ziemlich egal, wie sicher das am Ende war. Ich denke, da werden aus gutem Grund deutsche Firmen ein bisschen anders vorgehen.
Jasper Masemann: Was ist denn, wenn du sagst jetzt Timeline Tesla dreieinhalb Jahre, ihr bringt jetzt eure Hardware raus. Ich weiß nicht, ob du das sagen darfst. Wann würdest du damit rechnen, dass mit euren Chips wirklich ein Auto gesteuert wird?
Gilles Backhus : Ich denke, das kann 2025, 2026 sein. Das wäre, glaube ich, ein ambitionierter, aber noch realistischer Zeitrahmen, in dem man alles machen kann. Also natürlich auch noch eine weitere Iteration der Chip-Entwicklung, die natürlich stattfinden muss. Die ganze Zertifizierung außenrum, das ganze Software-Tooling außenrum, Entwicklung der Algorithmen, das kann man in dem Zeitrahmen auf jeden Fall hinbekommen.
Rasmus Rothe: Du hast ja gerade schon das Wort Algorithmen angesprochen. Da passiert ja auch recht viel. Also jede Woche kommen neue Paper raus, neue Architekturen, irgendwie Transformers, Attention. Es gibt neue Arten und Weisen, eben diese Netzwerke zu bauen. Und du hast ja auch gerade schon gesagt, dass Nvidia da generell auch ein bisschen flexibler ist, eben dass man so neue Architekturen recht gut deployen kann. Wie macht ihr das? Und weil du ja auch eben gerade für den Teil der Software und der Algorithmen zuständig bist, wie flexibel ist da euer Chip? oder wie findet ihr da die richtige Balance, dass ihr trotzdem da nicht hinterher seid? Weil wir ja gerade auch schon gelernt haben, dass die Entwicklungszyklen relativ lange sind von diesen Chips.
Gilles Backhus : Es war erst schon Ende 2017 so, dass von hinten einem der Väter von AI diese Capsule Networks kamen. Da war der Aufschrei sehr groß, alle haben gesagt, oh, das ist das neue große Ding. Da haben auch ein paar Leute, weiß ich noch nicht, ich meine, wir standen da ganz am Anfang natürlich, aber da haben auch ein paar Leute zu mir gesagt, oh ja, wie werdet ihr das denn jetzt mit reinbringen, das solltet ihr ja auch supporten. 2021, fast forward, redet keiner mehr drüber, soweit ich das mitbekommen kann. Transformer, was du angesprochen hast, sind, glaube ich, da deutlich relevanter in der neuen Art und Weise, auch im Vision-Bereich Daten zu verarbeiten. Haben wir uns tatsächlich schon angeschaut. Also es schaut sogar ganz gut so aus, dass wir, wenn wir die richtigen Instructions quasi dafür schreiben, dass auch unser aktueller Chip das handeln kann. Man muss dazu halt immer sagen, man hat einmal die Hardware und man hat einmal die Software. Wenn man jetzt die Software schreibt, die den Chip genau so ansteuert, dass das berechnet wird, was man berechnen will, dann könnte man theoretisch auch LSTM-Sales auf unserem Chip laufen lassen. Auch das würde gehen. Die Frage ist immer, wie effizient läuft es am Ende? und wollen wir das machen? Wollen wir für diesen Arbeitspunkt das Ganze optimieren? Also bei Transformer würde ich sagen, ja, im Endeffekt sind das viele fully connected Operationen und das kann unser Chip auch. Das heißt, wir werden das auch irgendwie ausführen können. Werden wir da perfekt drin sein? Nein, wahrscheinlich eher nicht. Wir sind sehr gut in CNN-fokussierten Workloads. Wir haben diese Sachen auf jeden Fall sehr auf dem Schirm. Also wir gucken uns alles immer an, was passiert.
Rasmus Rothe: Wie programmiert man so einen Chip? Also hat man da seinen, sag ich mal, irgendwie PyTorch-Code und exportiert den einfach und kann den direkt deployen. oder muss man da dann eben noch recht viel anpassen? und wenn ja, was?
Gilles Backhus : Also unser Chip hat nicht nur den AI-Beschleuniger, sondern wir haben auch ein paar im Endeffekt CPU-Cores. Man kann sich das so wie ARM-Cores in Smartphones vorstellen, hat er auch mit drin. Die orchestrieren quasi die Ausführung des Programms. Das heißt, denen gibt man Code an die Hand und dann wissen die, okay, von dem Speicherbereich nehme ich mir dann und dann das und schicke es dann und dann in den AI-Beschleuniger und weiß, dass dann und dann wieder das Ergebnis rauskommt. Jetzt von der Softwareseite her, also wir sind nicht in PyTorch, wir sind in TensorFlow unterwegs, aber es ist ja das Gleiche in Grün. Wir haben dann dort erstmal unsere ganz normalen Neural Network Trainings. Im ersten Schritt denken wir quasi gar nicht an Recognize, wir trainieren einfach neuronale Netze und wollen State-of-the-Art-Performance erreichen, wie es in neueren Payments Papern oder so erreicht wird. Dann wird es weitergereicht an ein anderes Team, was dann unsere sogenannte Conversion macht. Das heißt, dann wird dieser mathematische Graph, was ein Neural Network ja am Ende ist, übergeführt in einen Zustand, der Bit für Bit genau so mathematisch läuft, inklusive unserer Komprimierung und so weiter, wie es am Ende auf dem Chip läuft. Dann wird daraus Frozen Graph quasi exportiert. Das passiert dann auch in einem Format ONNX, was plattformübergreifend ist. Und dann kommt das in unsere Compiler-Welt. Compiler-Entwicklung findet zum guten Teil auch in München statt bei uns. Und dann geht es quasi einfach darum, den Graphen durchzulaufen und zu sagen, okay, ich habe hier den ersten Convolutional Layer im Graphen. Wie mappe ich den jetzt genau auf unsere Speicherbereiche und so weiter? Also ich denke, es ist ein recht üblicher Flow, den wir haben. Es ist jetzt nichts zu exotisches.
Jasper Masemann: Jetzt weiß ich ehrlich gesagt nicht, wie bei euch die Zyklen sind in der Softwareentwicklung. Ihr habt ja auch die Hardware da dran. Aber wenn du jetzt in die Zukunft schaust, habt ihr jetzt die ersten Chips, dann werden die angewarnt, wird getestet, dann wird das auch in die Produktion vielleicht gebracht. Aber rein auf der Software-Seite, was siehst du eigentlich noch für Trends, die sich dann vielleicht auch in eure Hardware übersetzen werden, was das Thema Machine Learning und Computer Vision angeht, was ihr auch umsetzen wollt? Also was liest du gerade gerne? Was findest du spannend und glaubst, dass das in der Zukunft kommen wird?
Gilles Backhus : Also ich denke, Transformer sind sehr interessant, was Rasmus auch schon erwähnt hat. Ja, ich meine, da bin ich jetzt auch nicht der Einzige, der das sagt, weil die einfach nochmal an dieses ganze Thema Kontext anders rangehen als rein convolutional Neural Networks. Also für Neural Networks ist es ja wichtig, das ganze Bild zu verstehen, den ganzen Kontext zu sehen. Weil nur so kann ich zum Beispiel ein Auto erkennen, was jetzt zum Beispiel das ganze Kamerabild ausfüllt. Das passiert in neuronalen Netzen, wie man es heutzutage im Vision-Bereich macht, also ohne Transformer, über so ein Receptive Field, was recht unintelligent über die Struktur eines Neural Networks aufgebaut wird, hinweg. Transformer machen das bisschen grundsätzlich anders und ich denke, das macht viel Sinn. Also das wäre auf jeden Fall ein Thema, was denke ich, viel Sinn macht, sich nochmal genauer anzugucken. Aber wie gesagt, unser erster Chip wird wahrscheinlich eine ganz gute Chance auch haben, sowas ausführen zu können. Ich meine, es gibt immer wieder kleinere Sachen, wie zum Beispiel Aktivierungsfunktionen, wo man sich auch überlegen könnte, wollen wir das nativ in Hardware unterstützen, weil die hier und da nochmal vielleicht ein halbes Prozent oder so bringen. Ich muss sagen, so an ganz großen Trends sehe ich aktuell sonst nicht viel.
Jasper Masemann: Das klingt so ein bisschen wie, dass eigentlich das nächste ist dann Quantencomputer, aber die haben natürlich ihre eigenen Anwendungen. Ich nehme an, daran arbeitet ihr jetzt nicht gerade.
Gilles Backhus : Genau, also Wenn du über sowas redest, okay, also unser Chip ist ziemlich langweilig in der Hinsicht, muss man sagen, weil wir machen ganz normale digitale Technik. Da ist jetzt nichts analog zum Beispiel. Es gibt natürlich auch Firmen, die versuchen, Neuronen eines Neural Networks analog zu berechnen, was halt nochmal deutlich stromsparender ist. Wir haben da komplett die Finger von gelassen, weil gerade im Automotive-Bereich, wo du irgendwie mal gut und gerne einen Temperaturbereich von, von minus 40 bis 125 Grad Celsius abdecken muss. Da mit analoger Technik zu arbeiten, ist sehr schwierig. Und klar, sowas kann man sich auch angucken. Also rein algorithmisch würde ich sagen, ist die nächste große Sache sind Transformer. Das ist auch das, was ich so höre. Vielleicht noch eine Sache tatsächlich, Online-Training. Also dass du quasi Algorithmen hast, die wirklich live auf Basis dessen, was sie sehen, trainieren. Dass dieses Training auch Real-Time passiert. Ich selber habe da ein paar Jahre in diesem Feld gearbeitet, mehr oder weniger als Noise Cancellation, weil bei Noise Cancellation passiert genau das. Die Kopfhörer, die bei uns die Geräusche rauscanceln, die lernen quasi permanent nach, egal wie man seinen Kopf bewegt, das Rauschen zu unterdrücken.
Rasmus Rothe: Wie ist das generell mit vertikaler Integration? Also ihr macht ja Hardware und Software. Und ähnlich wie auch ja die Cloud-Anbieter jetzt nicht nur irgendwie Computer in der Halle stellen, sondern eben mittlerweile ja auch sehr, sehr viel Software anbieten, gibt es da eine ähnliche Logik bei den Chips, dass ihr sagt, wie vielleicht auch so ein Apple, ihr baut nicht nur den Chip, sondern ihr verkauft auch die Software mit und die komplette Applikation. Also was kauft der Kunde im Endeffekt bei euch und was ist vielleicht auch eure Strategie moving forward da in der Richtung?
Gilles Backhus : Das ist eine Frage, die du anders beantworten müsstest, je nachdem mit welchem Kunden, in welcher geografischen Region und so weiter du redest. Für uns ist es auch so, in diesem ganzen Stack an Automotive Companies, also OEM, Tier 1, Tier 2 und so weiter, für uns gibt es potenziell mehrere Levels, wo wir in den Markt reingehen können. Es wird sowieso gerade alles ein bisschen fuzzy, weil du teilweise OEMs wie Volkswagen hast, die jetzt selber zu einem Tier 1 für sich selbst und vielleicht sogar aber auch andere werden wollen oder gerade werden. Wir entwickeln aktuell auch Software, auch Algorithmen. Wir entwickeln wirklich auch diesen Perception-Stack. Warum? Nicht unbedingt, weil jetzt schon die Frage geklärt ist, dass Kunden auch das von uns kaufen werden. Ich denke, es wäre ein bisschen naiv zu glauben, dass wir als Firma mit 47 Leuten den besten Perception-Stack der Welt entwickeln können. Besser als irgendwelche 1000-Ban-Research-Abteilungen bei Argo oder sonst wo. Es gibt genügend gute Perception-Teams, die das genauso entwickeln können. Aber was wir aktuell einfach machen müssen, ist, unser Chip hat so viel Rechenpower, dass es für die allermeisten potenziellen Kunden, mit denen wir reden, nicht trivial ist, wie man das überhaupt ausnutzt. Also 1000 Tera-Operationen, die ich potenziell wirklich einer einzigen Kamera geben könnte, da gibt es ein paar Regler, die man trivial nach oben bringt. Also zum Beispiel die Auflösung, die Bildrate, die Größe des Netzwerks. Aber irgendwann ist auch Schluss und dann muss man halt mit komplexeren Sachen wie Ensembles zum Beispiel anfangen. Also dass ich quasi mir jedes Bild mit nicht nur einem Objekterkenner angucke, sondern mit fünf. Wie so ein Voting-Parlament-Hub, ob da jetzt gerade wirklich ein Auto ist oder nicht. Deswegen müssen wir momentan sowieso, also wir reden da ganz gerne von so einem Referenzen. Modul bedeutet hier, es ist ein bisschen mehr End-to-End als nur der Chip. Wir haben wirklich ein Kamera-Frontend, das ganze I.O. zum Chip, den kompletten Software-Stack inklusive der ganzen Vision-Algorithmen und zeigen da quasi einmal von vorne bis hinten, wie kann so ein Flow End-to-End wirklich ausschauen? Wie kann das als quasi kleines System komplett funktionieren? Und diese andere Frage, die du ansprichst, also was kauft der Kunde am Ende, da muss man genau schauen. Also wir reden momentan mit verschiedenen Firmen über verschiedene potenzielle Business-Modelle auch. Das steht aktuell noch ein bisschen in den Sternen und ist für uns jetzt gerade auch gar nicht so relevant, weil für uns ist klar, wir wollen jetzt sowieso erstmal end-to-end so einen Referenz-Demonstrator bauen.
Jasper Masemann: Wenn jetzt so ein neuer potenzieller Kunde zuhört, was würdest du denn empfehlen, wenn er jetzt sagt oder sie sagt, Mensch, das klingt irgendwie alles spannend. Wie sollte man anfangen, bevor man euch anspricht? Was muss man vielleicht selber nochmal machen bei sich intern? Und was kann man eigentlich erwarten, wenn man jetzt mit euch spricht und loslegen will?
Gilles Backhus : Ich denke, es ist wichtig, Leute, die interessiert sind an unserer Technologie, dass die sich klar darüber sind, welche Arten von Algorithmen sie laufen lassen wollen, wie sie das Ganze integrieren wollen. Jemand, der jetzt zu uns kommt und unseren Chip will, der muss nicht unbedingt diesen Chip mit 1000 Tera-Operationen laufen lassen. Du kannst ihn auch gut und gerne mal mit 100 Tera-Operationen pro Sekunde laufen lassen, was ja auch schon eine ganze Menge Holz ist. dann geht natürlich auch mehr oder weniger linear der Stromverbrauch runter. Das heißt, dann hast du nochmal ganz andere Applikationen. Dann kannst du halt wirklich diesen Chip direkt hinter die Kamera an die Außenhaut des Autos bauen, wo du natürlich sehr wenig Wärmeaustausch hast, aber das würde dann auch gehen. Wir haben da gerne auch immer auf Systemebene Integrationsdiskussionen mit dem Kunden und kommen da auch immer zu sehr fruchtvollen Lösungen, glaube ich. Es wäre natürlich gut, sich einfach vorher darüber klar zu sein, was will ich genau laufen lassen? Wie will ich das in mein Auto integrieren lassen? Will ich das Ganze in ein absolutes Premium-Fahrzeug einbauen? oder geht es mir um einen kleinen Wagen, der irgendwas erreichen können soll? Was will ich überhaupt genau erreichen? Will ich jetzt eher so Level 2, 3 Autonomie haben, wo auch mal viel verziehen wird? oder geht es? mir um Level 4, 5, wo es wirklich darum geht, absolut robust Sachen zu erkennen. Und dann sind wir eben nämlich wieder bei diesen nicht trivialen Themen wie Ensembles, dass ich wirklich schaue, wie kann ich durch andere Methoden die Robustheit meiner Erkennung noch weiter nach oben schrauben. Einfach sich darüber komplett klar zu sein, das hilft schon mal viel und dann kann man in einen Dialog gehen, um zu schauen. Auch Sensoren sind so ein Thema übrigens. Also welche Sensoren will ich überhaupt verwenden? Da haben wir auch viel Expertise. Wir können auch jedem Kunden helfen, zu einer guten Lösung, glaube ich, zu kommen. Das wären so die Themen, die ich im Kopf habe.
Jasper Masemann: Sehr cool. Du hast ja zwischendurch mal gesagt, du weißt nicht, ob du der Richtige bist, um das zu erklären. Ich habe das Gefühl, ich habe sehr viel verstanden gerade. Von daher, ich fand, das war jetzt super gut, dass du uns das so erklären konntest und alle, die zuhören und die Interesse daran haben. Also ich jedenfalls habe ein sehr gutes Gefühl bekommen, dass ihr dem Kunden keinen Quatsch verkauft, dass ihr genau wisst, was er da tut und dass das sicherlich Sinn macht, mal mit euch zu sprechen und vielleicht noch mit ein paar anderen. Aber dass ihr da auf jeden Fall vor habt, was zu bauen, was den Kunden richtig was bringt. Und deswegen freue ich mich sehr, dass wir so eine Technologie auch in Deutschland haben, dass ihr da richtig Gast gebt drauf auf dem Thema. Also vielen, vielen Dank, dass du die Zeit hattest für uns. Wir werden natürlich alles verlinken und alle zu euch schicken. Und ja, viel Erfolg.
Gilles Backhus : Dankeschön. Dankeschön. Danke, Gilles .
Rasmus Rothe: Ciao.
Outro: Danke euch. Ciao. Tschüss. Danke fürs Zuhören beim Digital Kompakt Podcast. Du merkst, hier ziehst du massig Wissen für dich und dein Unternehmen heraus. Wenn du mit uns noch erfolgreicher werden möchtest, abonniere uns auf den gängigen Podcast Plattformen. Und hey, je größer wir werden, desto mehr Menschen können wir helfen. Also erzähl doch auch deinen Kolleginnen und Kollegen von uns. Bis zum nächsten Mal.