Geschmack und Farbe: Wie man Robotern beibringt, wie Menschen zu fühlen

Seit der Erfindung von Robotern haben die Menschen versucht, sie sich selbst so ähnlich wie möglich zu machen. Mensch zu sein bedeutet, die Welt um uns herum auf eine bestimmte Weise wahrzunehmen, aber unsere Software enthält Codes, die schwer zu knacken sind. Die Nachahmung der menschlichen Wahrnehmung durch die Elektronik ist zu einer der schwierigsten Aufgaben geworden. Sie ist heute auch ein großer Stolperstein bei der Schaffung von Systemen der künstlichen Intelligenz und der Entwicklung von Mensch-Maschine-Schnittstellen. Von Robotern wird immer mehr Vielseitigkeit verlangt.

Sensorik-Roboter - Roboter der zweiten Generation

Die ersten Generationen von Robotern, die in der Fertigung eingesetzt wurden, verfügten nicht über die technischen Mittel, um Informationen über ihre Umgebung zu erhalten. Sie besaßen weder Sicht noch Intelligenz. Daher konnte jeder Gegenstand oder jede Person, die ihnen in die Quere kam, Opfer einer Kollision oder eines automatisch programmierten Roboteraufpralls werden. Oder die intelligente Maschine selbst konnte unter einer solchen Interaktion leiden.

Roboter der ersten Generation sind nicht in der Lage, mit unbekannten, willkürlich angeordneten und nicht orientierten Objekten zu arbeiten und benötigen zusätzliche Vorrichtungen für die besondere Organisation des Arbeitsbereichs. All dies macht die Automatisierung komplizierter, teurer und weniger flexibel. Diese unangenehmen Folgen der sensorischen und intellektuellen Beschränkungen der ersten Robotergeneration lassen sich vermeiden, indem man den Umfang und die Art der informationsmessenden Sensoren und Steuerprogramme erheblich erweitert. Auf diese Weise entstanden die Roboter der zweiten Generation - die intelligenten Roboter -.

Diese Roboter unterscheiden sich von den Robotern der ersten Generation durch eine wesentlich umfangreichere Auswahl an künstlichen Sinnesorganen. In erster Linie handelt es sich dabei um taktile, visuelle, akustische und andere Sinnesorgane. Die Sinnesorgane von Robotern der zweiten Generation dienen der Eingabe von Informationen über den Roboter und die Umgebungsbedingungen in das Steuersystem, das nicht mehr wie bei den Robotern der ersten Generation auf ein Speicher- und Programmiergerät beschränkt ist, sondern einen Steuercomputer für seine Implementierung benötigt. Gerade die Sensorik in Verbindung mit einer hinreichend perfekten und vielfältigen Software des Steuerrechners ermöglicht es den Robotern der zweiten Generation, mit nicht orientierten Objekten beliebiger Form zu arbeiten, Strukturen gemäß der Zeichnung zusammenzusetzen und zu montieren, mit der äußeren Umgebung zu interagieren und die erforderliche (programmierte) Abfolge von Arbeitsvorgängen in einem sich ändernden Klima durchzuführen. Die Erkennung von Robotern ist also eine notwendige Voraussetzung für die Erhöhung ihrer Funktionalität.

Das Informationsmesssystem von empfindungsfähigen Robotern, d. h. das System ihrer Sinnesorgane, besteht aus Sensoren für externe und interne Informationen. Der Zusammenhang zwischen den Informationssensoren und ihrer Interaktion unterscheidet sich bei diesen Robotern erheblich von Software-Robotern. Bei empfindungsfähigen Robotern spielen externe Informationssensoren für die Wahrnehmung, Analyse, Erkennung und Kontrolle der Umweltbedingungen eine wichtige Rolle. Insbesondere die in Robotern der ersten Generation verwendeten Sensoren können als interne Informationssensoren verwendet werden.

Anforderungen und Hauptmerkmale von externen Informationssensoren

Je nach dem Zweck eines empfindungsfähigen Roboters müssen seine externen Informationssensoren Berührung, Sehen, Hören usw. simulieren. Darüber hinaus gibt es Sensoren zur Messung von Radioaktivität, Druck, Feuchtigkeit, Temperatur und anderen physikalischen Größen. Diese Sensoren müssen eine hohe Genauigkeit, Zuverlässigkeit, Geschwindigkeit, geringe Größe, Gewicht und Kosten aufweisen.

Es ist erwähnenswert, dass heute Sensoren und Geräte entwickelt werden, die um ein Vielfaches empfindlicher sind als unsere Sinne. Eine Fotozelle sieht einen großen Teil des Spektrums besser als das Auge, und ein Mikrofon hört besser als das menschliche Ohr. Ein Seismograph ist empfindlicher als unser Tastsinn, und das Gefühl für Temperatur ist natürlich nicht so gut wie ein Thermometer.

Und nur ein Sinn, der Geruchssinn, d.h. der Nachweis und die Bestimmung kleiner Mengen von Verunreinigungen organischer Stoffe bei Mensch und Tier, ist besser als die vorhandenen Instrumente. In diesem Zusammenhang ist zu betonen, dass die Geruchsorgane zu den kompliziertesten Sinnen gehören, wobei die Natur des Phänomens, auf das sie einwirken, noch unbekannt ist. Daher ist es eines der aktuellen Probleme der Robotersensorik, mit dem Geruchssinn des Hundes gleichzuziehen.

Die Erfahrungen bei der Untersuchung menschlicher und tierischer Sinnesorgane enthalten viele Informationen, die als Voraussetzungen für die Entwicklung künstlicher Sinnesorgane genutzt werden können. In lebenden Systemen sind alle Sinnesorgane mit eigenen Bewegungsorganen ausgestattet, die wiederum reichlich mit kinästhetischen Rezeptoren versehen sind. Bei der Wahrnehmung spielen sowohl einzelne Rezeptoren als auch rezeptive Felder und lokale Detektoren eine wesentliche Rolle, die es ermöglichen, bestimmte elementare Merkmale von Objekten zu unterscheiden. Bei der Analyse der Umwelt und des inneren Zustands spielt die gemeinsame, koordinierte Verarbeitung von Sinnessignalen unterschiedlicher Art eine wichtige Rolle, wobei die ausgeführten Handlungen berücksichtigt werden.

Die menschliche Interaktion mit der äußeren Umgebung basiert in erster Linie auf der Verarbeitung visueller, akustischer und taktil-kinästhetischer Informationen. Es gibt auch Situationen, in denen nur taktile und kinästhetische Empfindungen korrekte Informationen über die Eigenschaften der Umgebung liefern können. Dies ist beispielsweise der Fall, wenn Mikrobewegungen der Finger erforderlich sind, um die Form und Oberflächenbeschaffenheit der umgebenden Objekte zu bestimmen, oder wenn die visuelle Kontrolle behindert wird.

Die wichtigsten Arten von "künstlichen Sinnen" – Sensoren

Taktile und kinästhetische Sensoren

Die Entwicklung von Sensoren mit taktiler und kinästhetischer Sensibilität war erforderlich, um mehrere Herausforderungen zu lösen, die mit der Suche nach Gegenständen, dem Greifen und Bewegen von Gegenständen verbunden sind. Ein Kontaktsensor ist die einfachste Art eines solchen Sensors. Es handelt sich um winzige Schalter, die erkennen, wenn ein Objekt mit ihnen in Berührung kommt.

Taktile Sensoren reagieren auf Berührung und erkennen den Druck an der Stelle, an der der Sensor ein Objekt berührt. Sie sind häufig an den Stoßstangen von Transportrobotern oder an den Griffen von Manipulationsrobotern angebracht. Diese Sensoren werden verwendet, um einzelne Objekte zu erkennen, Schäden an ihnen und am Roboter selbst zu vermeiden und die äußere Umgebung durch Berührung und Ertasten zu erkennen.

Kinästhetische Sensoren erfassen die Position und Bewegung von Aktoren (z. B. die Finger eines Manipulators) und die Kräfte, die auf sie wirken.

Ein wesentliches Merkmal der taktilen und kinästhetischen Sensoren ist, dass sie in fast jeder Umgebung funktionieren. Insbesondere für Unterwasserroboter sind diese Sensoren unverzichtbar, da der Fernseh- oder optische Rückkanal bei trübem Wasser nicht mehr funktioniert.

Visuelle Sensoren

Für die intuitive Wahrnehmung und Analyse dreidimensionaler Szenen werden spezielle Geräte benötigt, die im Wesentlichen die funktionelle Arbeit des Auges nachahmen müssen. Es muss Lösungen für Probleme wie die aktive Suche nach Objekten durch Änderung der Ausrichtung des visuellen Sensors, die automatische Fokussierung des Bildes, die Messung der Entfernung zu Objekten, die Anpassung der Sensorempfindlichkeit in Abhängigkeit von veränderten Lichtverhältnissen, die Hervorhebung von Bildmerkmalen (Farbe, Textur, Konturen, Größe, Form usw.) bieten.

Bei der visuellen Robotererfassung sind Fernseh- und optische Sensoren die Informationsquellen. Ein Fernsehsensor ("Fernsehauge") ist eine Fernsehkamera. Das gesamte Bild oder ein Ausschnitt davon wird im Speicher als zweidimensionale Matrixprojektion einer realen dreidimensionalen Szene aufgezeichnet. Das Fernsehbild ist jedoch flach, im Gegensatz zu den Objekten selbst, die dreidimensional sind. Es beraubt Mensch und Roboter der dreidimensionalen Wahrnehmung und des damit verbundenen "Präsenz-Effekts&" Daher sind für die Wahrnehmung von Robotern' die Mittel der Holographie von großer Bedeutung, die es erlauben, nicht die zweidimensionale Dimension, sondern die von einem Objekt ausgehende Lichtwelle mit all ihren Details aufzuzeichnen und zu rekonstruieren. Roboter verwenden Fotozellen, Fotodioden, Lichtfilter, Lichtleiter und andere Elemente zusammen mit Lichtquellen, um die Farbe von Objekten zu bestimmen.

Der Hauptnachteil visueller Sensoren besteht darin, dass sie bei fehlenden Lichtquellen oder unter Bedingungen mit starker Lichtstreuung oder -absorption, wie etwa unter Wasser oder im Weltraum, nicht geeignet sind.

Geräuschsensoren

Zu den Schallsensoren gehören alle Arten von Mikrofonen und Ultraschallsensoren. Mikrofone werden verwendet, um bei der Sprachsteuerung eines Roboters die richtigen Befehle aufzunehmen. Ultraschallsensoren bestehen aus einem Signalgeber und einem Signalempfänger. Sie können das von Objekten reflektierte Ultraschallsignal nutzen, um sie zu erkennen und ihre Entfernung zu bestimmen.

Im Vergleich zu optischen Sensoren haben Ultraschallsensoren folgende Vorteile: Sie können transparente Objekte erkennen; ihre Messwerte hängen nicht von den Lichtverhältnissen ab und sind sehr unempfindlich gegenüber Veränderungen der physikalischen Eigenschaften der Umgebung (Staub, Dampf, flüssiges Medium); die Lebensdauer der Schwingungsgeneratoren ist nahezu unbegrenzt usw. Aufgrund der unscharfen Richtungsabhängigkeit der Ultraschallschwingungen ist die Genauigkeit der Entfernungsbestimmung zu Objekten bei solchen Sensoren jedoch gering. Außerdem können sie aufgrund der relativ großen Länge der Ultraschallwellen keine Objekte mit winzigen Abmessungen erkennen.

Wie sich die menschlichen Sinne von den sensorischen Systemen moderner Roboter unterscheiden

In gewisser Weise versuchen Roboter, die Gefühle von Menschen oder Tieren zu kopieren. Aber Roboter haben oft viel fortschrittlichere Systeme. Der menschliche Vestibularapparat zum Beispiel registriert Veränderungen der Körper- oder Kopfposition. Kein Organ kann uns jedoch sagen, wie viele Winkelminuten unser Knie oder Ellbogen gebeugt ist oder wie weit ein Gegenstand von uns entfernt ist, und zwar auf den Mikrometer genau. Menschen brauchen das nicht, aber im aktuellen Paradigma der Robotikentwicklung können diese Informationen intelligenten Maschinen helfen.

Roboter lassen sich in zwei Arten unterteilen: Fortbewegung und Manipulation. Die Hauptaufgabe des ersten Typs besteht darin, eine Nutzlast oder eine Person über große Entfernungen zu bewegen, wie es Drohnen, unbemannte Autos oder Boote tun. In dieser Situation besteht die Hauptaufgabe der Sensoren darin, die Position des Roboters im Raum sowie seine Position im Verhältnis zu nahe gelegenen Objekten zu ermitteln. Wir können auch lineare und Winkelbeschleunigungssensoren hinzufügen, die ein Gefühl für das Gleichgewicht, d.h. die Orientierung im Gravitationsfeld, vermitteln.

Die Aufgabe von Manipulationsrobotern, die funktionell die Hände nachahmen sollen, besteht darin, verschiedene Operationen mit Objekten durchzuführen. Hier kommt die kinästhetische Sensorik zum Tragen, die ein Gefühl für Position, Bewegung und Kraft vermittelt. Mit anderen Worten: Wir brauchen Sensoren, die die aktuelle Konfiguration und die Geschwindigkeiten einzelner Teile des Roboters bestimmen können, sowie taktile und Drucksensoren. Letztere sind besonders gefragt, um ein zuverlässiges Greifen von manipulierten Objekten zu gewährleisten und die Kräfte bei der Interaktion mit Dingen, der Umwelt und Menschen zu kontrollieren, um beispielsweise einen qualitativ hochwertigen Kontaktvorgang durchzuführen und den Roboter nicht zu beschädigen oder eine Person zu verletzen, die sich in der Nähe oder im direkten Kontakt befindet.

Natürlich kann für alle oben genannten Roboter eine beträchtliche Anzahl von Zusatzsensoren verwendet werden, die von der jeweiligen Anwendung abhängen. Einige von ihnen liefern Informationen über den internen Zustand des Systems, andere geben Informationen über die Umgebung. In diesem Zusammenhang sind Sensoren für die Mensch-Roboter-Interaktion von entscheidender Bedeutung.

Trends in der Robotersensorik

Einer der aktuellen Trends im Bereich der Robotersensorik ist die Entwicklung von taktilen Sensoren. Der Fortschritt geht in Richtung der Entwicklung von Robotern, die effizient und sicher in einer dynamischen, unstrukturierten Umgebung arbeiten können. Es ist unmöglich, alles ein für alle Mal genau festzulegen und in engen Kontakt mit dem Menschen zu treten.

In diesem Zusammenhang werden immer mehr neue Arten von Messgeräten entwickelt. So werden beispielsweise verteilte Sensoren, die als künstliche Haut bezeichnet werden, entwickelt und getestet. In den USA, der Schweiz, Deutschland, Korea, China und Japan, wo große Labors auf diesem Gebiet arbeiten, nimmt die Haptik - die Kraftrückkopplungssteuerung - stark zu.

Das Konzept des integrierten Funktionsdesigns oder Co-Designs aller Roboterkomponenten entwickelt sich auch bei der Entwicklung von Robotersystemen, bei denen Design, Sensoren, Stromversorgung, Computerplattformen, Algorithmen und Software gleichzeitig entwickelt werden, wobei die endgültige Funktionalität des Systems als Ganzes im Vordergrund steht.

Aufgrund der Entwicklung der persönlichen Robotik sollten Sensoren für die multimodale menschliche Interaktion, z. B. kombinierte Sensoren für das gleichzeitige Lesen von Audio- und visuellen Informationen für die weitere Verarbeitung der natürlichen Sprache (Verarbeitung der natürlichen Sprache), in größerem Umfang eingesetzt werden.

Sinnesroboter: Was eine Maschine mit Sehvermögen und Gehör leisten kann

Einige intelligente Maschinen verfügen über Gas- und Flüssigkeitsanalysatoren als Analogie zu unseren Geruchs- und Geschmacksorganen, mit denen sie Gerüche und Geschmäcker wahrnehmen können, wenn auch nicht in demselben Maße wie wir es können. Seit Jahrzehnten helfen solche "elektronischen Nasen" den Zollbeamten, gefährliche und verbotene Substanzen zu erkennen. Labors verwenden sie, um Lebensmittel auf Frische und nicht dokumentierte Verunreinigungen zu analysieren. Sie helfen Ärzten, Gastritis im Frühstadium zu diagnostizieren und explosive Gaslecks in Pipelines aufzuspüren.

Apropos hören, als Beispiel, die Siri Sprachassistenten für iOS oder andere. - Dies sind Beispiele für "elektronische Ohren", die Ihre Sprache wahrnehmen und "verstehen", was Sie gesagt haben. Die Erkennung natürlicher Sprache ist eine schwierige Aufgabe, weshalb die Entwicklung solcher Systeme Kenntnisse aus verschiedenen Bereichen der Linguistik, Mathematik und Informatik erfordert.

Als Analogie zum menschlichen Sehen (zwei Augen und die von Geburt an in unserem Gehirn ausgebildeten Biomechanismen) können wir einen ganzen Zweig der Informatik anführen - das Computersehen (oder Maschinensehen). Computer-Vision-Systeme lösen alle Aufgaben, die der sichtbaren Realität zuzuordnen sind, und gehen manchmal darüber hinaus, wenn wir über das Sehen im Infrarotbereich, Elektronenmikroskope und Röntgenbilder sprechen. Solche Systeme erkennen handschriftliche Eingaben und autorisieren den Zugang zu geschützten Systemen über die Netzhaut oder die Iris. Sie ermöglichen subtile Anzeichen von Anomalien auf Röntgenbildern. Dateneingabe über Augenbewegungserkennung für Menschen mit Behinderungen.

Angenommen, es liegen mehrere Bilder eines Objekts vor, die mit unterschiedlichen Parametern aufgenommen wurden. In diesem Fall kann es sich um den Drehwinkel, die Beleuchtung oder etwas anderes handeln. Die Aufgabe der KI-Systeme besteht darin, eine dreidimensionale Szene, ein Modell des aufgenommenen Objekts zu rekonstruieren. Das ist die Art von Aufgabe, die wir jeden Tag machen. Wir schauen zum Beispiel irgendwo hin und schätzen die Entfernung zu Dingen und ihre Form ab und bemerken hervorstehende Teile. Das ist es, was unser Gehirn im Hintergrund tut.

Moderne Computer-Vision-Algorithmen sind schnell genug, um aus Bildern dreidimensionale Daten zu gewinnen, sogar aus Bildern von zwei Kameras, und zwar in Bruchteilen von Sekunden. In diesem Fall können wir von Echtzeit-Stereo-Bildgebungsalgorithmen sprechen. Ein solcher Roboter, der mit einer oder mehreren Kameras ausgestattet ist, kann sich in Echtzeit in einem unbekannten Raum bewegen, ein Modell dieses Raums erstellen und es an einen Menschen senden.

Die praktische Anwendung solcher Systeme liegt auf der Hand. Nehmen wir an, dieser Roboter ist ein Bathyscaphe, ein Quadcopter, eine Plattform mit Rädern oder ein Gehgerät. In diesem Fall kann er an einen schwer zugänglichen Ort geschickt werden, z. B. in ein strahlenverseuchtes Gebiet, sogar auf den Mond oder den Meeresboden, und er wird ein Modell der Umgebung erstellen und seinen Weg ohne menschliches Zutun finden.

Auch Ärzte verwenden Computeraugen, um medizinische Bilder zu analysieren, Entomologen, um verschiedene Arten von Gliederfüßern zu identifizieren, und sogar Chemiker nutzen die Computervision, um die Ergebnisse von Experimenten aufzuzeichnen.

Zum Beispiel können Zahnärzte mit einer Spezialkamera Bilder von abgebrochenen Zähnen von verschiedenen Seiten machen und ein dreidimensionales Modell des abgebrochenen Zahns erstellen. Der Patient sieht dann auf dem Monitor ein Modell dieses Abbruchs und ein Modell des natürlichen Zahns. Das Programm kann sie kombinieren, ein spezieller Algorithmus subtrahiert die Volumina, und es entsteht ein dreidimensionales Modell für die Herstellung. Dieses Modell kann als Datei ausgedruckt werden, die Maschine stellt den fehlenden Teil des Zahns her, und er passt perfekt an die vorgesehene Stelle.

Es gibt auch ein Beispiel für eine diagnostische Anwendung. Wenn ein Arzt über MRT-Schichten des Gehirns oder anderer Organe verfügt, kann aus ihnen ein dreidimensionales Bild gewonnen werden, das deutlich macht, wie groß das Volumen eines bestimmten Prozesses in den Organen des Patienten ist und wie verbreitet er ist.

Gegenwärtig werden dreidimensionale Rekonstruktionstechnologien häufig für die Navigation und Kartografie eingesetzt. Es gibt autonome Module, darunter auch Autos, die mit zahlreichen Sensoren ausgestattet sind, darunter Radar, Lidar, Sonar und Kameras. Die Aufgabe all dieser Geräte ist es, sich ein vollständiges Bild von der Umgebung des Fahrzeugs zu machen. Mit ihrer Hilfe kann das Fahrzeug einparken und sich automatisch entlang der Markierungen bewegen. Diese Technologien werden bereits eingesetzt und entweder beim automatisierten Fahren oder beim autonomen Fahren (in fahrerlosen Autos) verwendet. Wenn man sich in die Höhe begibt, lösen die Bildverarbeitungssysteme die Probleme der Luft- und Raumfahrtkartierung. Nach ähnlichen Prinzipien, mit Bildern im sichtbaren, infraroten und ultravioletten Bereich, erfassen Computer Vision Systeme die Topographie der Erde, über die Satelliten fliegen.

Das hochpräzise zerstörungsfreie Scannen wird in der Kinematografie, der Computeranimation und in medizinischen Anwendungen eingesetzt. Die Erstellung von Modellen der realistischsten Objekte - Gesichter von Menschen, Tieren usw. - ist ohne schnelle Rekonstruktionstechnologien fast unmöglich. Die Werkzeuge zur hochpräzisen Übertragung natürlicher Dinge in virtuelle Szenen basieren auf Algorithmen mit strukturierter Beleuchtung.

Einige Unternehmen haben sich auf Technologien für Kinematographie und Animation spezialisiert. Ihre Lösungen ermöglichen es einem Projektor und einer hochauflösenden Kamera, menschliche Gesichter zu scannen. Die daraus resultierenden Modelle ermöglichen die Schaffung realistischer Figuren für Animationen und ersetzen echte Schauspieler im Kino. Andere Unternehmen haben sich auf die Erstellung interaktiver Hologramme von makroskopischen Objekten (Stadtviertel, Kraftwerke, Geschäftszentren) spezialisiert - auch sie müssen auf die Computer Vision zurückgreifen, um die Dimensionen der vorhandenen Dinge zu erfassen.


Daher sind Roboter heutzutage menschlicher als je zuvor. Manche sagen voraus, dass Roboter sehr bald in der Lage sein werden, alles um sich herum wahrzunehmen. Aber die Maschinen haben noch einen sehr langen Weg vor sich. Infolgedessen dürfte sich ihre "Verhaltensautonomie" verbessern, so dass es für Roboter einfacher wird, mit Menschen zu interagieren und alltägliche Aufgaben und dabei auftretende Konflikte zu lösen.