Roboter auf Weg zur Weltherrschaft?

5. August 2020, mit Erik Pfannmöller

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Erik Pfannmöller: Hallo und herzlich willkommen zu einem neuen AI Unplugged Podcast von Digital Kompakt. Kurzer Disclaimer an der Stelle, wie alle in der aktuellen Zeit sind auch wir im Home Office und das ist eine Remote-Aufnahme. Falls die Audioqualität also nicht perfekt ist, bitte entschuldigt das. Mein Name ist Erik Pfannmöller, ehemaliger Kanu-Weltmeister, dreifacher Familienvater und Gründer von SolveMate, einer KI-basierten Plattform für eine verbesserte Service Experience. Unsere Chatbots ermöglichen es, dass Endkunden ihre Serviceanfragen im Handel umdrehen und ohne menschliche Supportagenten lösen können. Wie immer bei AI Unplugged erklären wir Alltagsthemen rund um das Thema KI einfach und für jedermann verständlich. Wir besprechen gesellschaftliche Umwälzungen durch KI, aber auch neueste KI-Trends. Heute geht es bei AI Unplugged um das Thema Roboter, Status Quo, auf dem Weg zur Weltherrschaft. Kurz sozusagen hier in Folge 13 hatten wir schon mal das Thema Robots angesprochen, damals mit UiPath und der Software Roboter. Heute geht es um echte Roboter, um physische Maschinen und ich freue mich dazu, Rainer Bischoff, Leiter Konzernforschung von der Firma KUKA bei mir zu haben. Herzlich willkommen Rainer, vielleicht stellst du dich mal selbst vor.

Rainer Bischoff: Hallo Erik, vielen Dank für die Einladung. Ja, das will ich gerne tun. Also du hast ja schon gesagt, ich leite bei KUKA die Konzernforschung, mache das auch schon seit ein paar Jahren, habe sehr viele gute Kontakte in die Forschungscommunity und versuche das Beste aus der Forschungscommunity für die KUKA nutzbar zu machen. Das heißt, was wir machen, ist letztlich die Technologieentwicklung für die Produkte und Lösungen der Zukunft.

Erik Pfannmöller: Wenn ich an KUKA denke, dann denke ich immer an diese orangenen Roboter, die, ich war mal in dem VW-Werk zum Beispiel, die die Autos zusammenschweißen. Ist das KUKA? oder wie würdest du sagen, was ihr macht? Was ist sozusagen euer Geschäft?

Rainer Bischoff: Das ist KUKA, insbesondere auch bei VW. VW ist sicherlich einer unserer größten Abnehmer, unserer Roboter. Aber wir machen nicht nur die Roboter als Komponente, sondern bieten auch die Automatisierungsanlagen. Das heißt, auch die Anlagen, die bei VW und bei anderen Automobilisten stehen, die werden von KUKA aufgebaut. Also KUKA hat sowohl ein Komponenten- als auch ein Anlagengeschäft. KUKA ist sicherlich damit groß geworden, die Automatisierung von der Automobilindustrie zu vereinfachen. Aber wir versuchen natürlich auch in andere Bereiche vorzudringen. Ich sage mal als ein Beispiel nur die Medizintechnik.

Erik Pfannmöller: Und in der Medizintechnik ist es ja sozusagen wie der Schweißroboter, nur noch sehr viel präziser, oder?

Rainer Bischoff: Ich glaube auch, die Schweißroboter, die müssen sehr präzise sein. Das ist eigentlich wirklich schwer vorstellbar, dass man mit einem Roboter mit drei Meter Reichweite doch noch eine Zehntel Millimeter Genauigkeit erreichen kann. Und das macht sich natürlich auch die Medizin zunutze. Also hier in der Medizintechnik insbesondere geht es darum, dass man mit Röntgenstrahlen oder mit Neutronenstrahlen zum Beispiel Tumore behandelt. Und da kann man sich vorstellen, wenn die im Gehirn zu behandeln sind, dass da eine sehr hohe Präzision erforderlich ist. Und das kann man mit unseren Robotern erreichen.

Erik Pfannmöller: Ich muss mich entschuldigen, natürlich schweißen auch die Autoroboter auf Millimeter genau und das ist ganz klar. Ich habe KUKA einfach nur als Weltmarktführer in der sozusagen Robotik im Kopf und freue mich deswegen, dass wir heute darüber sprechen können, auch mit jemandem, der sich so viel in der Robotik auskennt. Wir wollten starten mit sozusagen so einer Art Disambiguation zu Robots im Sinne von Robotic Process Automation und Realweltroboter. Erklär das mal für den Laien verständlich, was ist da der Unterschied?

Rainer Bischoff: Wir wollen ja auch ein bisschen über das Thema AI, künstliche Intelligenz reden. Also dass wir sozusagen einmal die AI unterscheiden, die sich nur um das Thema Daten kümmert und dann um die AI, die sich um reale Weltinteraktion kümmert. Und für uns ist natürlich von besonderem Interesse, dass wir die künstliche Intelligenz in Verbindung mit Robotik bringen, um in der wirklichen Welt eine Prozessverbesserung, eine Qualitätsverbesserung, oder überhaupt eine Funktionalitätsverbesserung zu erreichen. Uns geht es nicht darum, nur auf Daten zu arbeiten, sondern die Daten immer in einem sinnvollen Zusammenhang zu der eigentlichen, zur wirklichen Welt, zur Produktion zu bringen oder auch im Serviceeinsatz.

Erik Pfannmöller: Das ist schon mal gut zu verstehen, dass sozusagen Daten benutzt werden können, um Computerprogramme zu verbessern oder sozusagen daraus Prozesse abzuleiten, die dann wiederum durch sogenannte Robots im Robotic Process Automation, das heißt kleine Softwareprogramme, die automatisiert Dinge erledigen. Das ist auch so eine Art Roboter, aber so ein digitaler Roboter. Im Vergleich zu Realwelt-Robotern, die wiederum, und ich glaube, da hast du auch zwei Ebenen hinzugefügt. Einmal die zugrunde liegende Software, Datenanalyse macht, das ist mathematische Algorithmen. Und dann gibt es ja auch Software, die sozusagen die Roboter steuert. Da muss man auch nochmal trennen. Habe ich das richtig verstanden?

Rainer Bischoff: Genau, das hast du richtig verstanden. Also wir reden bei KUKA sicherlich nicht von Chatbots oder von Software-Robotern in diesem Sinne, sondern es sind bei uns natürlich Roboter, die in der wirklichen Welt mit realen Gegenständen in Kontakt treten. Also diese physikalische Interaktion ist ein ganz wichtiges Entscheidungskriterium dieser beiden Arten von Roboter und wir kümmern uns wirklich nur um die physikalische Interaktion. Was können Roboter heute?

Erik Pfannmöller: Ich erinnere mich, dass ich letztens ein YouTube-Video gesehen habe, wie ich einen Pizza-Mach-Roboter gesehen habe. Erzähl mir mal, was so der Status Quo ist, wie Roboter heutzutage eingesetzt werden und wo die größten Use Cases sind.

Rainer Bischoff: Also Roboter werden heutzutage immer noch überwiegend in der Automobilindustrie eingesetzt und in allen Fertigungsbereichen, in denen man einfach durch den Maschineneinsatz eine größere Präzision, eine bessere Qualität hat. höhere Genauigkeit erreicht und auch den Menschen von schweren oder monotonen Arbeiten entlasten kann. Also das sind nach wie vor die größten Einsatzzwecke. Roboter kommen aber auch immer mehr vor im Bereich der Dienstleistungen. Also gerade jetzt, wenn wir mal auf die ganz aktuelle Situation eingehen mit Covid-19. Es gibt mittlerweile Roboter, die in Krankenhäusern Viren abtöten können. Und das machen sie, indem sie ein ultraviolettes Licht durch die Gegend fahren und gezielt einsetzen, um Viren an Wänden, an Türklingen und so weiter abzutöten. Also es gibt im Serviceeinsatz einen immer größer werdenden Bereich an Robotertechnologie. Was jeder weiß, im privaten Haushalt die Staubsaugerroboter oder im privaten Garten die Gartenmähroboter. Aber es gibt dazwischen dann, was wir uns vielleicht alle mal erträumt haben, im Bereich der Haushaltshilfen, Da gibt es noch lange nichts. Also da sind wir noch sehr weit davon entfernt.

Erik Pfannmöller: Der Roboter, der sozusagen beim Aufräumen hilft und die Legosteine sortiert und ganz genau weiß, wo welcher Gegenstand ist, den sich Menschen ja merken, um sozusagen den typischen Aufräumroboter. oder der Roboter, der sozusagen die Wäsche zusammenlegt.

Rainer Bischoff: Ich falte mal kurz ins Wort. Auch das haben wir alles schon in Forschungsbeiträgen gesehen. Typischerweise dann aber auch in Videos. Das heißt, es hat vielleicht einmal funktioniert oder auch zweimal. Man beschleunigt diese Videos, um dann zu zeigen, was die Roboter machen. theoretisch machen können. Aber das ist etwas, was wir uns heute noch nicht wirklich vorstellen können, dass das mal in breitflächigen Einsatz kommt. Also ganz anders als die Staubsaugerroboter, die wirklich nur eine einzige Funktionalität haben, tun wir uns aktuell wirklich schwer, Roboter zu entwickeln, die mehrere Funktionalitäten in einem Haushalt erledigen können und das eben zu Kosten, dass jeder bereit wäre, das dafür auch auszugeben.

Erik Pfannmöller: Und woran liegt das?

Rainer Bischoff: Das liegt daran, dass Robotik insgesamt kompliziert ist. Also die Interaktion von Maschinen mit der wirklichen Welt ist nicht so einfach. Der Mensch, der stellt sich das immer sehr einfach vor, weil wir das ja im tagtäglichen Umgang gewohnt sind, einfach nur ein Glas Wasser einzuschenken, ein Glas auf den Tisch zu stellen, etwas aus dem Kühlschrank zu holen. Das sind für uns alles Bewegungen, die wir das ganze Leben lang gelernt haben. Ein Roboter heute kann diese Dinge nicht einfach so lernen. Oder wenn er sie lernt, dann führt er sie hinterher sehr langsam aus. Es sind also funktionelle Defizite, die die Roboter heute einfach haben, dass wir sie nicht für allgemeingültige Aufgabenstellungen einsetzen können. Und das eine ist sozusagen diese Funktionalität, die den Robotern fehlt. Das andere ist aber auch, sind einfach die Kosten. Wir können heute Roboter sehr preiswert in großen Stückzahlen für eine Automobilproduktion zur Verfügung stellen. Aber Roboter, die genauso viele Freiheitsgrade oder noch viel mehr Freiheitsgrade als die heute in der Automobilproduktion tätigen Roboter sind, das lässt sich kostentechnisch nicht darstellen. Die Anzahl der Motoren, die Anzahl der Getriebe, die man braucht, das hat einfach Kosten, dass heute wir nicht in der Lage wären, für 1.000 Euro einen Haushaltsroboter anzubieten.

Erik Pfannmöller: Das finde ich ganz interessant, dass du sagst, wir können einiges, aber wir können auch vieles noch nicht. Lass uns noch mal einen kleinen Schritt zurück machen und sagen, ich habe jetzt verstanden, es geht um Mechanik oder Mechatronik, also ganz kleine physische Motoren. Gleichzeitig muss man diesem Motor ja beibringen, was er tun soll, das heißt, ein Arbeitsablauf. Und dann kann man sozusagen im dritten Schritt, da kommen wir zu dem Thema KI, sagen, kann der Robot auch noch was dazulernen? Oder man kann KI benutzen, das ist die zugrunde liegende Software, um ihm zum Beispiel über Image-Textion zu sagen, das ist ein Objekt und du kannst das Objekt erkennen, egal wo es liegt, weil dann ja nicht der Arbeitsablauf genau einprogrammiert ist. Lass uns mal ganz oben anfangen bei der Mechatronik. Du hast gesagt, das ist teilweise einfach zu teuer, Roboter herzustellen. Woran liegt das? Für mich ist es einfach, ich habe hier eine Hand, die kann ich auf und zu machen. Wir sehen es ja gerade auf dem Video und das ist ganz einfach. Aber so eine Elektrohand ist doch bestimmt schwieriger zu bauen.

Rainer Bischoff: Mit Sicherheit. Also unsere Hände haben vielleicht mindestens 21 Freiheitsgrade, wenn wir einfach mal die Gelenke zusammenzählen und können dadurch eine unglaubliche Flexibilität erreichen. Unsere Hand ist auch ein sehr großes Bereich in unserem Gehirn gewidmet, um überhaupt die Hand vernünftig steuern zu können. Die Hand ist mit Sensorik ausgestattet, also mit taktilen Zellen. Wir können Temperatur messen oder nicht messen, aber wir können es fühlen und haben dadurch ganz andere Möglichkeiten, als heute die Technik bietet, auf sehr kompakten Raum ein Manipulationsgerät praktisch unser eigen nennen zu können. Und wir haben nicht nur eins, wir haben sogar zwei. Und außerdem sind wir auch noch in der Lage, dass diese beiden Hände, die sind an Armen dran. Und mit den Armen können wir auch jede Menge machen. Wir können die auch für einen umschließenden Griff die Arme verwenden. Wir können sehr hohe Kräfte aufbringen, zumindest zeitweise. Und wir können auch sehr präzise Aufgaben erfüllen. Und all das bietet die heutige Robotik noch nicht.

Erik Pfannmöller: Das ist ja spannend, wenn man sich sozusagen in diesen Videos sozusagen oftmals sieht, was Roboter schon können. Und wenn man überlegt, dass alleine eine Roboterhand oder ein Finger ja aus tausenden von Sinneszellen besteht und die wiederum ja eine Realweltrückkopplung übers Gehirn geben und das Gehirn dann alleine den Griff sozusagen anpasst. Und dann kann man sich ja überlegen, dass man auch leicht und stark zugreifen kann. Und das wiederum ist ja über Jahre gelernt, dass ich zum Beispiel eine weiche Naschibirne anders anfasse als eine Melone oder als ein Stein und dass ich bei einem Stein aber auch stärker zugreifen muss. Das finde ich interessant, schon mal die Dimension sozusagen der Feinmechanik zu besprechen. Dann hatten wir noch die zweite Ebene, nämlich wie erklärt man eigentlich Robotern, was sie zu tun haben? Wie macht man das typischerweise?

Rainer Bischoff: Ich will noch mal einen Satz sagen zu dem Thema Mechatronik. Es haben sich also Herrscher von Forschern schon damit beschäftigt, nur herauszufinden, wann ein Gegenstand aus einer Hand rutscht. Also wie stark muss ich zugreifen, bevor ein Gegenstand rutscht? in meinen Händen? Und das haben wir sozusagen als Mensch sehr einfach gemacht. im Laufe unseres Lebens gelernt, wie das funktioniert. Das sind so einzelne Funktionalitäten, die man dann zusammensetzen muss, damit ein großes Ganzes eine Manipulationsfähigkeit daraus wird. Und wie gesagt, auf Forschungsniveau haben wir bestimmte Funktionalitäten erreicht. Aber die jetzt kommerziell einzusetzen, umzusetzen und das zu einem Kostenfaktor zur Verfügung zu stellen, dass sich jeder so einen Roboter leisten kann und mag, da sind wir weit von entfernt. Wenn man bis zum Ende denkt und sagt, wie möchte man eigentlich mit solchen Robotern interagieren, dann ist es natürlich so, als wenn ich vielleicht eine Haushaltshilfe hätte, der ich ganz beliebig Kommandos geben kann. Was sie denn zu tun hat. Also hol mir mal eine Flasche Bier aus dem Kühlschrank. Das ist so ein ganz typisches Beispiel. Das ist aber etwas, was ich mir heute auch sehr einfach vorstellen kann. Wir kennen alle Siri, wir kennen Cortana, wir kennen die ganzen Sprachassistenten. Jeder kann sich vorstellen, dass man solche einfachen Kommandos mittlerweile sprechen kann. Was dann der Roboter aber machen muss, ist ja diese Sprache in Bewegungsbefehle umzusetzen, in Befehle umzusetzen, seine Umgebung wahrzunehmen, um seine Umgebung zu modellieren. Und das sind Dinge, die heute einfach Zeit brauchen und die auch nicht genau sind. Also Roboter können das heute in Einzelfällen machen, aber nicht verlässlich über längere Zeit zu akzeptablen Kosten. Also es gibt einzelne Roboter, die kosten 100.000, 200.000 Euro, die können das mit Sicherheit. Und wenn man das Video dann schnell abspielt, das den Roboter zeigt, wie er das macht, dann sieht das auch ganz plausibel aus. Aber es lässt sich eben heute nicht darstellen in marktfähigen Produkten.

Erik Pfannmöller: Ich finde das ganz interessant, wie du das darstellst, diese Komplexität, wenn man sich das mal durchdenkt. Ich sitze im Wohnzimmer auf der Couch und jemand muss zum Kühlschrank gehen. Dann muss ja der Roboter, faktisch ist ja ein Computerprogramm, das den steuert. Das muss ja wissen, wo befinde ich mich im Raum? Was ist der beste Weg zum Kühlschrank? Da muss man den Kühlschrank öffnen. Das Ganze auch noch halbwegs schnell, weil ein Mensch kann sich auch sehr schnell bewegen, wenn man sich das mal überlegt. Und wie du sagst, schneller gedreht, habe ich schon zweimal gehört. Da muss man den Kühlschrank öffnen. Man muss das Objekt erkennen. Das steht ja nicht immer am exakt vorgegebenen Lagerplatz. Muss dann zum Beispiel auch merken, ist es noch voll oder leer. Und wenn die Flasche leer ist, muss man sich vielleicht eine neue holen oder in den Keller gehen und eine andere Flasche besorgen. Richtig zugreifen, die Glasflasche oder Plastikflasche nicht fallen lassen und zurückbringen. Und wenn man das durchdenkt, wie viele Kommandos für einen Computer, der ja eigentlich erst mal gar nichts weiß, das sind, dass die Komplexität im Detail steckt. Und ich finde interessant, dass du gerade so 100.000, 200.000 Euro gesagt hast und dann muss man es noch schneller drehen. Ist das so der Stand der Technik aktuell?

Rainer Bischoff: Ich denke, das ist der Stand der Technik, ja. Es sind wirklich viele Einzelschritte erforderlich und man kann sie heute alle machen, aber es macht keiner den Finalschritt, um es zum Produkt zu bringen, weil vielleicht auch sogar der Markt gar nicht dafür da ist, dass man das darstellen könnte. Und wie gesagt, nicht zu den Kosten, mit denen wir das heute realisieren könnten.

Erik Pfannmöller: Also muss ich keine Angst?

Rainer Bischoff: Nee, keine Angst haben.

Erik Pfannmöller: Ich komme gleich noch zu Boston Dynamics, wenn man manchmal Videos, kurzer Sidekick, wenn man die Videos im Internet sieht, wo die Roboter dann rückwärts Salto machen. Wie ist deine Meinung dazu?

Rainer Bischoff: Das sind faszinierende mechatronische Systeme. und auch dort ist es so, dass wir diese Videos sehen und dann denken, wow, tolle Leistung. Ich finde das auch super faszinierend. Aber auch die bei Boston Dynamics, die kochen nur mit Wasser, bauen mechatronische Systeme, müssen diese Systeme auch mehrfach filmen, um überhaupt das, was wir dort sehen, einmal richtig zu sehen. Also es ist faszinierend zu sehen, was mit mechatronischen Systemen heute möglich ist. Aber auch das lässt sich nicht für Otto-Normalverbraucher in die Küche holen.

Erik Pfannmöller: Da sind ja auch riesige Budgets dahinter, die teilweise auch aus dem Militär kommen. Und eben noch nicht für Normalzwecke, dass man sagt, in einer Firma habe ich vielleicht Sachen aufzuräumen. Also nicht Standardsachen wie Logistik, ein Roboter fährt was wohin oder es wird was geschweißt, was sehr, sehr repetitiv ist.

Rainer Bischoff: Auch Logistikaufgaben haben wir bei Boston Dynamics schon gesehen, dass dort humanoide Roboterkisten von links nach rechts gestapelt haben. Aber bis das tatsächlich mal einen, man muss das auch immer als einen Ablauf sehen, der in so einer Firma, einen wahren Ablauf, der durchzuführen ist. Und da stecken noch ganz viel mehr Dinge dahinter, als jetzt in Anführungszeichen nur das Aufheben dieser Kiste und dann womöglich auch das richtige Abstapel dieser Kisten. Es ist Software für alle Einzelprobleme vorhanden, aber das in Summe zu einem Produkt zu bringen, ist eine relativ schwierige Aufgabe.

Erik Pfannmöller: Auch wenn man sich das vorstellt, dass es ja eine ökonomische Frage ist. Sprich, eine Firma muss ein Investment machen, das sehr, sehr teuer ist, und dann muss man x Roboter verkaufen über eine Zeit. Und im Vergleich dazu ist ja die Sache, okay, wenn ein Mensch heute viele Pakete pro Stunde in einer unglaublich hohen Qualität haben kann, Dann ist ja die Frage, das hat so vorhin gesagt, gibt es überhaupt einen Markt dafür? Das heißt, kann ich ein Produkt zu einem attraktiven Preis anbieten, der ja deutlich günstiger sein muss als der Zeit der menschlichen Arbeit, damit sich überhaupt die Anschaffung, dieses Investment in einen Roboter rechnen kann?

Rainer Bischoff: Genau, unsere Kunden machen sehr wohl eine Kosten-Nutzen-Rechnung und es ist ungefähr so, wenn man einen Roboter kauft, dann zahlt man nochmal ungefähr das Vierfache an Installationskosten, an Programmierkosten. Das heißt, es ist am Ende nicht nur der Roboter, es ist ja die gesamte Anlage, die man braucht. Man muss einen ganzen Warenfluss organisieren und teilweise lohnt sich das eben nur bei sehr großen Stückzahlen und bei Stücken, die immer gleich aussehen. Deshalb eben auch der Anfang der Robotik in der Automobilindustrie, wo man eben von Anfang an hohe Stückzahlen hatte. Aber auch da kommen wir mittlerweile zu Anlagen hin, die sehr viel individueller Autos bauen können und wo man mehrere verschiedene Typen von Autos, also mit Stufenheck, ohne Stufenheck, als Coupé, als Cabrio, was es auch noch für Varianten gibt, dass man die alle über eine Anlage, über eine Schweißanlage fahren kann, um diese Karossen für diese unterschiedlichen Autos schweißen zu können. Das ist der aktuelle Stand der Technik.

Erik Pfannmöller: Finde ich spannend. Wir sind jetzt bis hierhin gekommen und wir haben sehr viel sozusagen schon über Roboter gesprochen. Ich weiß aber aus unserem Vorgespräch, hatten wir über vier Evolutionsstufen von Robotern gesprochen und ich mag unseren Hörern immer gerne so ein Bild im Kopf mitgeben, dass sie sich das vorstellen können, wo wir gerade sind. Kannst du das mal einordnen? Was sind diese vier Evolutionsstufen und wo sind wir heute?

Rainer Bischoff: Ja, wir haben für die Robotik vier Evolutionsstufen definiert. Die erste Stufe ist die Stufe, die wir vielleicht so in den 80er, 90er Jahren hatten. Das heißt, wir haben Roboter-Systeme gehabt, die in der Automobilindustrie und in anderen großen Fertigungsbereichen angefangen haben, Prozesse zu automatisieren. Die wurden von Hand programmiert, diese Roboter. Später kam auch eine Offline-Programmierung dazu. Das ist sozusagen das klassische Automatisierungsbild, was wir so vom geistigen Auge haben. Jetzt in den 2000er Jahren kamen Roboter auf, die ohne Schutzzaun funktioniert haben und eine integrierte Sensorik mitgebracht haben, die es ihnen ermöglicht hat, viel feinfühliger mit Objekten umzugehen. Das ist die zweite Revolutionsstufe, von der wir sprechen. Die dritte Revolutionsstufe, die sieht dann Roboter auf mobilen Plattformen. Das heißt, der Roboter wird auch mobil. Der Roboterarm kann am Ort A und am Ort B eine Tätigkeit vollführen und auf dem Weg dazwischen. Und die vierte Revolutionsstufe wäre dann die, wo diese Roboter, die ich zuvor genannt habe, nicht mehr nur programmiert werden oder automatisch, etwas ausführen, sondern autonom werden. Das heißt, die Roboter werden kognitiv. Und dann habe ich diese vierte Stufe erreicht, wo Roboter auch selber Entscheidungen treffen, wie bestimmte Aufgaben zu erledigen sind. Und heute befinden wir uns so zwischen der Stufe zwei und drei. dieser Revolutionsstufen. Das heißt, wir haben Roboter, sogenannte Cobots, die immer mehr mit den Menschen zusammenarbeiten, im menschlichen Umfeld arbeiten, keinen Schutzzaun mehr brauchen, hin zu Robotern, die auch mobil werden und dann zwischen verschiedenen Werkzeugmaschinen Teile transportieren, in Werkzeugmaschinen Teile einlegen, dort wieder rausnehmen. Das sind so typische Aufgaben für mobile Roboter heutzutage. Also irgendwo dazwischen befinden wir uns.

Erik Pfannmöller: Das ist spannend. Ich würde noch mal kurz auf das Thema Automat versus Autonom eingehen, weil das ist ja sozusagen der Schritt. Also erst mal verstanden, dass sozusagen wir noch weit entfernt sind von autonomen Robotern, die die Wertherrschaft übernehmen à la Terminator, sondern das Thema Automat versus Autonom. Wie würdest du den Unterschied zwischen den beiden definieren? Wann ist ein Roboter autonom?

Rainer Bischoff: Für mich ist es, vielleicht bleiben wir nochmal kurz beim Thema Automat oder automatisch. Das sind eigentlich alle Roboter-Systeme, die wir heute kennen, die im produktiven Einsatz sind. Die können programmiert werden, die können auch offline programmiert werden. Das heißt, man kann ihn über ein CAD-System programmieren. sagen, was sie zu tun haben. Da werden da automatisch Programme daraus abgeleitet.

Erik Pfannmöller: Was heißt CAD, um dich da kurz zu unterbrechen?

Rainer Bischoff: CAD, Computer Aided Design, also wie wir heute unsere Produkte kreieren, das entsteht ja alles am Computer. Und aus den Produkten kann ich auch ableiten, wie muss ich diese fertigen. Und aus diesen Fertigungsanweisungen kann ich auch Roboterprogramme erzeugen. Das ist aber alles vordefiniert. Das heißt, die Roboter, die arbeiten ein Programm ab, was man ihnen mit auf den Weg gegeben hat. Es gibt wenig Sensorikeinsatz in diesen ersten drei Revolutionsstufen, bis auf das, was ich eben sagte, dass die Roboterarme mittlerweile Sensoren an Bord haben, dass es ihnen eine feinfühlige Interaktion auch mit der Umgebung ermöglicht, aber immer blind noch weitestgehend.

Erik Pfannmöller: Also wenn ich, nur um das kurz nochmal da einzuhaken, wir gehen gleich weiter hin, wenn ich einen Roboter mit Sensorik habe, also Roboter wird einprogrammiert, bewege dich XY in diese Richtung und mache dort diese Bewegung. Und wenn ich als Mensch in dem Umfeld arbeite, vielleicht trägt der Roboter das Stück Eisen und der Mensch haut mit einem Hammer drauf. dann merkt der Roboter, wenn er sich zu nah an den Menschen bewegt. Und das meinst du mit eingebauter Sensorik?

Rainer Bischoff: Die Nähe des Menschen, die kann er in den seltensten Fällen heute spüren, also zumindest nicht in sicherer Technik. Was er spüren kann, sind Kontakte. Also wenn ein Roboter einen Menschen berührt, dann kann das in sicherer Technik heute detektiert werden. Aber man möchte natürlich versuchen, den Kontakt zwischen Mensch und Roboter, außer er ist wirklich gewollt, für einen bestimmten Prozessschritt zu vermeiden. Also diese Kontakte vermeidet man heute, indem man Lichtschranken einsetzt, Laserscanner einsetzt, die einfach dafür sorgen, dass der Mensch, sobald er in den Arbeitsbereich des Roboters tritt, der Roboter stillgesetzt wird. Das möchte man aber für zukünftige Produktionsumgebungen vermeiden, dass Roboter und Mensch wirklich nebeneinander arbeiten können und der Roboter einfach langsamer wird, sobald sich der Mensch dem Arbeitsbereich des Roboters nähert.

Erik Pfannmöller: Wir waren sozusagen beim Computer Aided Design, wo die Fertigungsprozesse dem Computer, dem Roboter gegeben werden und er einfach genau ausführt, was ihm gesagt wurde. Und dann kommen wir ja irgendwann zu dem Schritt, wo man gerne möchte, dass der Roboter erstens vielleicht Dinge, also ich sehe da zwei Dimensionen, bitte korrigiere mich, wenn das falsch ist. Das eine ist, wenn ich zum Beispiel einem Roboter sage, finde einen gelben Lego-Stein, dann muss ja der Roboter in einem Haufen von allen Farben von Lego zum Aufräumen, um bei diesem Beispiel zu bleiben, das ich jeder vorstellen kann, dann muss der Roboter ja ein trainiertes Computer Vision System benutzen, was ja KI ist,

Rainer Bischoff: um

Erik Pfannmöller: erstmal die Farbe gelb von den anderen zu erkennen und dann einen Lego-Stein vielleicht von anderen Objekten. Das heißt, dann benutzt der Roboter KI, um überhaupt seine Aufgabe auszuführen. Das heißt, die Aufgabe wird nicht mehr einprogrammiert, sondern abstrakt formuliert. Finde den Stein und nicht mehr gehe dorthin, bewege dich dahin. Das ist die eine Dimension. Und die zweite Dimension ist, dass der Roboter seine Bewegungen selbst lernt. Zum Beispiel merkt, okay, ich habe Die Birne gegriffen, aber ich habe sie zerknetscht. und weil ich sie zerdrückt habe, muss ich beim nächsten Mal nicht mehr so stark zugreifen. So ein bisschen Reinforcement Learning. Wie siehst du die beiden im Zusammenspiel und wie ist der Status Quo? Wie wird das passieren, dass die Roboter so langsam autonom werden?

Rainer Bischoff: Auch da gibt es ja schon genügend Beispiele, dass das funktioniert. Auch wir haben uns bei KUKA in der Konzernforschung mit diesen beiden Fragestellungen beschäftigt. Das Thema Vision ist sicherlich ein ganz wichtiges Thema. Wir versuchen mit Hilfe von Kameras, die an den Robotern fest installiert sind oder die in der Umgebung des Roboters sind, zu erkennen, wie die Umgebung aufgestellt ist, wo Objekte liegen, mit denen ich interagieren möchte. Das lässt sich heute sehr gut machen und auch dort gibt es Möglichkeiten, das über neuronale Netze, die ich trainiert habe, die Bilderkennung zu vereinfachen. Ich würde sagen, das ist ein Stand der Technik, der uns heute auch sehr viel schneller zum Ziel bringt, eine Bildverarbeitung, die für Roboter interessant ist, durchzuführen. Der zweite Aspekt, dass Roboter sich selber beibringen, wie bestimmte Griffe zum Beispiel auszuführen sind, das ist noch Gegenstand der Forschung. Das lässt sich nicht so ohne weiteres auf die Technik. Roboter im Produktionseinsatz übertragen. Aber auch hier kommen wir der Sache ein wenig näher. Das Beispiel, was wir bei uns ausprobiert haben, ist, dass wir einen Roboter haben, letztlich wie ein Kleinkind, das greifen lernt, einfach in eine Kiste haben greifen lassen. In dieser Kiste befanden sich zwei verschiedene Bausteine, runde und eckige. Und die runden hat er dann gelernt, nach links zu sortieren und die eckigen nach rechts zu sortieren. Und das hat er einfach gemacht, indem er immer wieder in diese Kiste gefahren hat, den Greifer zugemacht hat und geguckt hat, hat er überhaupt ein Objekt gegriffen. Das heißt, hier war ein Zusammenspiel zwischen einer Kamera, die in diese Kiste geguckt hat und dem Impuls, ist der Greifer komplett geschlossen oder ist der Greifer noch etwas offen und habe ich etwas gegriffen. Und darüber konnte der Roboter innerhalb von 36 Stunden zu 90 Prozent Genauigkeit lernen, wo sind lukrative Ziele in der Kiste, die ich greifen muss oder wo ich hinfahren muss, um einen sicheren Griff zu haben. Und außerdem eben noch die Unterscheidung, ob es nach links oder nach rechts zu sortieren ist. Das lässt sich heute darstellen für einfache Gegenstände, für einfache Objekte.

Erik Pfannmöller: Für mich als Familienvater finde ich immer diese Vergleiche mit Kleinkindern ganz spannend. Wir haben ja Kinder im Alter von fünf, acht und elf. Und über Jahre, wenn man sich überlegt, wie Kinder anfangen, Dinge zu greifen, mit ihrem Mund Dinge zu ertasten, dann fangen sie irgendwann an zu sprechen, zu krabbeln, zu laufen. Mittlerweile kann man der Fünfjährige schon mit einer Säge umgehen. weil sie einfach gelernt hat, sozusagen aufbauend aufeinander, wie man zum Schluss ein Stück Holz durchsägen kann und wie viel Kraft man aufbringt. Und wenn man sich überlegt, dass das Durchsägen eines Stückes Holz ist mit einer kleinen Holzsäge, wie viele Fähigkeiten das eigentlich braucht, nämlich ein Gefühl für das Holz, für die Kraft und für eine lineare Bewegung vor und zurück, die dann wiederum leichter wird zum Schluss, bevor das Holz durchbricht, damit es nicht absplittert. Das sind diese ganz vielen Fähigkeiten, die einem eigentlich erstmal klar werden, Also wenn ich jetzt nur vom Holz sägen spreche, und damit meine ich jetzt nicht von einer Industriesäge, die einfach einen Baumstamm zersägt, sondern ein Holz nehmen, in einen Schraubstock einspannen und mit einer Säge durchsägen. Wie viele verschiedene Fähigkeiten, wie stark muss ich den Schraubstock zudrehen, dass das Holz nicht zerdrückt wird, aber auch nicht hält. Wie viel Lernen da eigentlich drin ist. Und wir haben ja nicht zum Spaß 10 Milliarden Neuronen in unserem Kopf. Und wie viele Jahre das dauert, um das überhaupt zu lernen. Ich glaube, dann wird dem Hörer jetzt auch klar, dass man keine Angst vor der Weltwirtschaft der Roboter haben muss. Zumindest nicht in der kurzen Zukunft. Aber auch, wie schwierig das eigentlich ist.

Rainer Bischoff: Vielleicht darf ich, wenn ich noch ein Beispiel geben darf zum Thema Schachspielen, auch diesen Unterschied nochmal bringen zwischen künstlicher Intelligenz, die nur auf Daten beruht und welcher, die mit der physikalischen Interaktion der Umgebung beruht. Also heute gibt es Schachprogramme, die jeden Schachgroßmeister schlagen können. Das ist überhaupt kein Problem mehr. Das ist ja auch eine Art der künstlichen Intelligenz. Es gibt aber keinen Roboter, der ein Schachspiel aus einem Regal nehmen kann, diese Box mit den Figuren aufklappt, die Figuren rausholt, das Schachspiel aufbaut. und dann anfängt zu spielen. Das heißt, die Interaktion des Roboters mit der wirklichen Welt ist so viel schwieriger als das eigentliche digitale Abbilden des Spieles Schach und das erfolgreich spielen zu können. Und dann wird einem vielleicht auch klar, dass es jeder Sechsjährige kann heute ein Schachspiel aufbauen, vielleicht auch ein fünfjähriges Mädchen. Aber ein Roboter heute macht das nicht.

Erik Pfannmöller: Finde ich interessant. Auch diese, du hattest vorhin das Wort Freiheitsgrade genannt. Beim Schach gibt es ja irgendwie vor, zurück, zwei Freiheitsgrade. Ich weiß nicht, ob das jetzt korrekt richtig ist, da bist du der Experte.

Rainer Bischoff: XY, genau.

Erik Pfannmöller: Von A nach B und es gibt XY und dann gibt es noch als dritte Dimension vielleicht welche Figur, weil die verschiedene Sachen hat.

Rainer Bischoff: Ja, die Höhe würde ich in dem Fall noch als Freiheitsgrad betrachten. Man muss ja die Schachfigur auch anheben, vielleicht über andere Figuren drüberheben und dann wieder absetzen. Das heißt man hier XYZ. Die Rotation der Schachfiguren spielt in dem Moment keine Rolle, weil es ist uns letztlich egal, wie das Pferd auf dem Feld steht, die Rotation der Figur um die Y-Achse herum spielt in dem Moment keine Rolle.

Erik Pfannmöller: Aber Freiheitsgrade, wenn ich jetzt so eine Art humanoiden Roboter, der mir eine Flasche Bier holen soll oder der die Schachpackung aus dem Regal nimmt, der muss ja hinfahren, da gibt es drei Freiheitsgrade. Genau. Dann muss er sozusagen das Regal öffnen, Schublade öffnen, da gibt es immer wieder, also für jeden Vorgang gibt es ja verschiedene Freiheitsgrade. Ja. Und je mehr Vorgänge nacheinander oder teilweise auch parallel, nämlich Schublade schließen und anheben sind, hat man ja parallel. sozusagen, ich stelle mir das immer wie Dimensionen vor. Und das ist die Ursache dafür, weil es sich ja, also das multipliziert sich und wird ja exponentiell schwieriger, das Problem zu lösen.

Rainer Bischoff: Vielleicht kann das jeder bei sich zu Hause auch mal machen. Typischerweise würden wir heutige Roboter vielleicht nur mit einem Arm ausliefern, nicht mit zwei, allein schon aus Kostengründen. Und jetzt kann jeder mal zu Hause bei sich selber überlegen, wenn er sich seinen zweiten Arm in die Hosentasse steckt oder auf den Rücken bindet und vielleicht dazu noch ein Auge zumacht, vielleicht auch beide Augen oder verbindet, wie er dann in der Lage ist, im Haushalt sinnvolle Tätigkeiten zu machen. Da wird man vielleicht schnell dazu kommen, dass man vielleicht doch ein Stereosehen braucht wie der Mensch und man wird dazu kommen, dass man doch vielleicht zwei Arme braucht, neben den zwei Armen eben auch noch die zwei Hände. Und dann komme ich ganz schnell in eine Anzahl von Motoren, die ich einfach brauche und ansteuern und koordinieren muss. die sich eben heute, ich komme nochmal auf das Thema Wirtschaftlichkeit, das lässt sich einfach nicht wirtschaftlich darstellen. Im Forschungsumfeld kann ich sicherlich einzelne Aufgaben lösen. Da habe ich auch schon Roboter gesehen, die Pfannkuchen backen und Waschmaschinen ein- und ausräumen. Also das lässt sich alles machen technisch, aber es ist nicht wirtschaftlich darstellbar.

Erik Pfannmöller: Einmal durchatmen. Das finde ich interessant. Wenn man sich dieses Gedankenexperiment mal, ich habe es gerade versucht, sozusagen Augen zu und dann vielleicht mit nur einer Hand, die auch nur drei Finger hat und dann meine Scheibe Brot abzuschneiden. Ist halt nicht so einfach.

Rainer Bischoff: Man braucht noch eine Hand, die eigentlich das Brot festhält. Also es gibt ganz viele Vorgänge im privaten Haushalt oder auch in der Industrie. Ich muss mir die Prozesse immer so hin machen, dass ich mit einem Arm und einer Hand auskomme oder mit einem Arm und einem Prozesswerkzeug. Und ich muss das Objekt, mit dem ich arbeite, das muss ich irgendwie fixieren. Und das sind halt die typischen Automatisierungsvorgänge heute, die Automobilkarossen, die geschweißt werden. Die werden alle eingespannt, massiv fixiert. Die müssen ja auch geometrisch in der richtigen Form sein, bevor ich sie dann zusammenschweißen kann. Das ist das, was wir heute zu 100 Prozent oder zu 99,9 Prozent automatisieren können. Die Endmontage in der Automobilindustrie, die kann ich nicht automatisieren. Da brauche ich einfach die kompletten menschlichen Fähigkeiten. Beide Arme, viele Freiheitsgrade. Ich muss über Kopf arbeiten. Ich muss nach vorne, nach hinten, zur Seite arbeiten können und mich noch sehr flexibel bewegen. Gegenstände vor und zurück bewegen. Also das ist etwas, was wir mit heutigen Robotern noch nicht darstellen können.

Erik Pfannmöller: Spannend. Man hat irgendwie aus den Medien so ein anderes Bild. Aber wenn man sich das wirklich mal vor Augen führt, wie viele Motoren es braucht, um eine Scheibe Brot abzuschneiden oder wie viele Motoren es braucht, um um eine Tür an ein Auto zu bauen und zwar zuerst an das eine Auto, dann das andere Auto und dann eine Schraube festzuziehen. Ich stelle mir vor, für jeden Motor muss ich ja rechts, links und Geschwindigkeit haben, weil das ist ja so die Steuerung von irgendeinem Motor. Und dann habe ich aber 100 Motoren in so einer echten Roboterhand, die eine Tür anbauen kann und einen Schraubenzieher. Das ist schwierig und ich kann das schon verstehen. Ich höre so ganz viel Pragmatismus heraus, nämlich lass uns das machen, was als Firma Sinn macht und ihr als Gucker sozusagen. Hätten wir im Bereich Industrieroboter. Ihr rechnet natürlich genau in diesen Automations-Cases. Das machen wir ja auch als Chatbot-Firma. Wir sagen ganz klar, wenn dieser Kundenservice-Anfrage nicht tausendmal im Monat passiert oder hundertmal pro Woche, dann rechnet es sich nicht, das überhaupt zu trainieren. Auch nicht in den Chatbot, der so eine Art virtueller Roboter ist. Und im realen Leben sind einfach die Kosten noch viel höher, einen physischen Roboter zu bauen und auch zu programmieren.

Rainer Bischoff: Genau. Ich sagte es bereits, es sind nicht nur die Kosten des Roboters selbst, die man betrachten muss, sondern auch die Integration in eine Anlage. Das Programmieren dieses Systems, es ist nicht nur der Roboter als nackte Komponente, das darf man auch nicht vergessen.

Erik Pfannmöller: Ich würde nochmal, bevor wir sozusagen zum Abschluss kommen, auf das Thema Medizinrobotik einsteigen. Du hast das vorhin so nebenbei erwähnt, dass es auch ein Wachstumsthema ist. Wie sieht es in der Medizinrobotik aus? Ich kenne da diese, wo der Arzt die Kamera auf hat und der Roboter sozusagen ohne Handzittern die Operation durchführt. Ist das schon ein Medizinroboter? oder wie ist der Status quo, wo geht die Reise hin?

Rainer Bischoff: Also es gibt heute Roboter-Systeme oder Manipulationssysteme, die vom Chirurgen gesteuert werden. Und dort werden zum Beispiel dann die Bewegungen des Chirurgen, die durchaus größer, mehrere Zentimeter sein können, vielleicht auf ganz kleine Bewegungen im Millimeterbereich im Körperinneren umgesetzt. Also das ist eine Teleoperation, das ist etwas, was man machen kann. Wo wir so ein bisschen darauf hinzielen, ist, dass wir den Roboter als Komponente in Medizinprodukte liefern, die dann wiederum zum Beispiel eine Wirbelsäulenschirurgie durchführen können, um dort zu Roboter, die wir auch aus der Industrie heraus kennen, zur Tumorbehandlung eingesetzt werden oder einfach auch einen Roboter dazu hernehmen, einen Patienten so zu positionieren, dass er an einem Neutronenstrahl richtig positioniert wird. Also Roboter mit ihrer hohen Präzision können also im medizinischen Alltag von sehr, sehr großer Hilfe und Bedeutung sein. Vielleicht nochmal ein Beispiel mit den Röntgenstrahlen. Das muss man sich so vorstellen, dass ich eine Röntgenstrahlkanone am Endeffektor des Roboters befestigt habe und dann versuche, diesen Tumor zu treffen. Diesen Tumor, den treffe ich jetzt aber nicht nur von einer Richtung auf den Kopf gezielt, sondern von mehreren Richtungen um den Kopf herum. Und was dann passiert ist, dass sich die Strahlen alle in dem Tumor treffen, aber das umliegende Gewebe eigentlich nur einmal von so einem Strahl durchstoßen wird. Damit schaffe ich es also, mit einer höheren Dosis den Tumor zu bearbeiten und das umliegende Gewebe wird geschont. Und das ist, denke ich, ein großer Vorteil, den die Robotik heute bietet mit ihrer Präzision, dass man Menschen helfen kann, denen man früher noch nicht helfen konnte.

Erik Pfannmöller: In der Medizin sind ja auch viele Dinge sehr, sehr klein. Und da muss es nicht unbedingt um sozusagen Nanomedizin gehen, sondern viele Sachen sind auch, ich stelle mir vor, alle sehr viel interessiert. In der Chirurgie, Herzchirurgie, wie wir gerade diese Manipulationsroboter hatten, da ist ja auch der Mensch gefragt, dass der keinen Quatsch macht. Und wenn der Mensch zufällig abrutscht bei der Bewegung, dann ist das eben die Maschine, die das Abrutschen erkennen kann. Auch wiederum durch KI-gestützte Software, die erkennt diese Bewegung aber nicht intentionell. Die war halt abgerutscht durch Zufall oder man hat gezittert und das Zittern rausradiert, sozusagen softwaretechnisch. Und gleichzeitig aber auch die physische Präzision einfach, stell mir das gerade vor, mit den Röntgenstrahlen bei einem Tumor an irgendeiner Stelle werden fünf kleine Röntgenstrahlroboter gemacht und das ist einfach viel besser und viel präziser. Und da ermöglichen Roboter Dinge, die vorher gar nicht möglich waren.

Rainer Bischoff: Was wir vielleicht noch als ein nettes Beispiel bringen können, ist, dass Roboter heute in der Lage sind, Haarverpflanzung zu unterstützen. Das heißt, der Roboter, der erntet an bestimmten Stellen am Kopf, wo eben die Haare noch wachsen, erntet er im Grunde genommen Haarwurzeln.

Erik Pfannmöller: Ich muss lachen, weil ich recht wenig Haare habe oben und das Thema gerade passt.

Rainer Bischoff: Und diese Haare, diese Haarfollikel, die werden dann an bestimmter anderer Stelle, wo sie eben gebraucht werden, wieder eingesetzt. Und jetzt hat der Roboter einen bestimmten Endeffektor, der eben in der Lage ist, diese Haarfollikel einzuschießen in die Kopfhaut. Und das auch auf eine Art und Weise, dass das nicht nach einem ganz einfachen Muster aussieht, sondern auch zufällig aussieht. Dass also hinterher das nicht zu erkennen ist, dass das praktisch durch einen Roboter, der hohe Präzision hatte, gemacht wurde, sondern dass man dann bewusst wieder… eher ins Zufallsmuster einbringt, um das dann natürlich aussehen zu lassen.

Erik Pfannmöller: Das finde ich ein super Beispiel, um sozusagen einerseits diesen repetitiven Prozess von 5.000 Haaren oder x.000, die da umgesetzt werden, mit gleichzeitig einer Präzision und einer computerbesteuerten Variability einzubringen.

Rainer Bischoff: Genau.

Erik Pfannmöller: Sehr schönes Beispiel.

Rainer Bischoff: Und pro Haar gibt es einen Dollar. Das heißt, wenn sich jemand 10.000 Haare versetzen lässt, sind das 10.000 Dollar. Und das ist ein sehr lukratives Geschäft für die, die dann unsere Roboter dafür einsetzen.

Erik Pfannmöller: Arbeitet ihr daran, an solchen Robotern?

Rainer Bischoff: Wir haben solche Roboter, die wie gesagt dann als Komponente in ein Medizinprodukt eingebracht werden können. Also wir selber sind nicht Anbieter des Medizinproduktes. Das machen dann andere. Da gibt es viele Startup-Unternehmen, aber auch etablierte Unternehmen wie Siemens, Healthcare zum Beispiel. Die nehmen dann unsere Roboter und integrieren sie in ein Medizinprodukt und bieten das dann wieder am Markt an.

Erik Pfannmöller: Spannend. Finde ich einen ganz interessanten Ausblick, dass man überlegt, dass Haarpflanzungen in zehn Jahren vielleicht nicht mehr vom Mensch gemacht werden, weil es einfach schneller und effizienter ist, so wie Augenlaser-Operationen auch vom Computer gemacht werden mittlerweile. Gib vielleicht nochmal zum Abschluss so einen kleinen Ausblick, so die nächsten fünf bis zehn Jahre. Was sind die interessantesten Themen, auf die ihr schaut und wo du Innovationen kommen siehst?

Rainer Bischoff: Also wir sehen definitiv natürlich das Feld der künstlichen Intelligenz kommen, dass wir das auf eine bestimmte Art und Weise mit unserer Robotertechnik verheiraten müssen. Und hier bietet sich natürlich insbesondere an beim Thema Prozessautomatisierung. Qualitätsverbesserung tätig zu werden. Wir können vielleicht erkennen, wenn Roboter ein Problem in ein Problem laufen. Unsere Roboter, die laufen 400.000 Stunden, ohne irgendein Wartungsintervall zu haben. 400.000 Stunden, das ist eine wahnsinnig lange Zeit. Also mehrere Monate, 24 Stunden, sieben Tage die Woche, 365 Tage im Jahr. Und es kann aber trotzdem sein, dass an irgendeiner Stelle, an einer anderen Stelle im Prozess, also nicht der Roboter selbst, sondern an irgendeiner anderen Stelle ein Problem auftaucht und dass wir versuchen dann für die gesamte Anlage zu erkennen, wo sind irgendwelche Anomalien gegenüber dem Normalprozess. Und diese Anomalien zu erkennen und dann entsprechend einzugreifen und vielleicht auch vorbeugende Wartungsintervalle denn vorzuschlagen, das ist so ein Bereich, auf den wir jetzt zielen. Also mit Hilfe einer Datenanalyse aus dem laufenden Prozess heraus zu sagen, wie können wir etwas besser machen oder verhindern, dass eine Anlage stehen bleibt aufgrund eines Fehlers.

Erik Pfannmöller: Super. Das sind ja interessante Ausblicke. Und auf jeden Fall können wir zusammenfassen, dass die Weltherrschaft der Roboter ganz weit weg ist. Weil vorher, bevor sie die Welt übernehmen, müssen sie erst mal ein Bier zu holen. Und selbst das klappt noch nicht. Und dann noch das Schachspiel aufbauen. Ich danke Rainer Bischof, Leiter Konzernforschung von der Firma KUKA, für das tolle Gespräch. Dankeschön.

Rainer Bischoff: Ich danke.