Prof. Dr. Oliver Bendel: „Simple Werkzeuge, die Entlastung bringen“

Prof. Dr. Oliver Bendel*, Autor der Bücher „Pflegeroboter“ und „Maschinenliebe“ sowie Forscher und Dozent am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz, über künftige Fähigkeiten und heute noch ungelöste Problemfelder beim Einsatz von sozialen Robotern.

Von Heiner Sieger

Was werden soziale Roboter in der digitalen Pflegewelt der Zukunft können und was nicht?

In manchen Bereichen traut man sozialen Robotern zu wenig zu, in anderen zu viel. Das Ausziehen und Anziehen von Pflegebedürftigen sowie das verletzungsfreie Reichen von Nahrung wird vielleicht auch 2025 nicht beherrscht. Auch das Umbetten und Aufrichten wird wohl nur zusammen mit einer Pflegekraft geleistet werden können. Andere Tätigkeiten, wie Dinge holen, aufheben und reichen, Flaschen öffnen und Patienten einsammeln, sind für Modelle wie Lio schon heute Standard.

Ethische Dilemmata und Fragen nach Haftung und Sicherheit

Ab wann etwa stellen soziale Roboter überhaupt eine wesentliche Ergänzung des Gesundheitssystem im Allgemeinen und dem Pflegewesen im Speziellen dar?

Das hängt von der Akzeptanz in der Bevölkerung sowie regulatorischen Maßnahmen ab. Viele Menschen haben da Science-Fiction im Kopf. Aber es sind meist simple Werkzeuge, die wesentliche Entlastung bringen. In 10 bis 20 Jahren werden sie in vielen Krankenhäusern und Pflegeheimen vielfach individuelle Betreuung weitgehend unterstützen oder übernehmen können – wenn wir das denn wollen. Neben der Ethik sind auch viele weitere Fragen zu klären, wie etwa bei der Haftung und der Sicherheit. Was passiert, wenn so ein Roboter eine Treppe hinunterstützt oder eine falsche Medikation verabreicht?

Benötigen wir für Roboter im Pflegebereich eine ganz besondere Ethik? Wie sollte die aussehen und wer ist dafür verantwortlich?

Technikethik, Informationsethik und Roboterethik sowie Medizinethik sind die zuständigen Bereichsethiken. Sie stellen die Chancen und Risiken von Pflegerobotern und anderen Robotern in der Pflege dar. Sie fragen nach der Verantwortung, etwa wenn Falschbehandlungen oder Unfälle vorkommen, oder nach einer möglichen Verletzung der Menschenwürde. Die Maschinenethik kann Pflegeroboter schaffen, die bestimmten Werten oder Regeln folgen und sich moralisch adäquat verhalten.

Digitalisierung im Gesundheitswesen: bleiben Sie mit unserem Newsletter immer auf dem Laufenden!

Soziale Roboter – eine Verniedlichung muss nicht sein

In welchem Umfang und in welchen Bereichen sollen/können solche „Gesellen“ eingesetzt werden? 

Serviceroboter können als soziale Roboter mit menschlichen Zügen gestaltet sein. In einigen Fällen bietet sich das an, etwa an der Hotelrezeption oder im Bordell. In einigen Fällen würde ich eher davon abraten. Ein Transportroboter muss kaum soziale Eigenschaften haben, es sei denn, er kommt häufig mit Menschen (oder Tieren) in Berührung. Dann können Augen oder Geräusche helfen, wie bei Relay von Savioke. Ich sehe insbesondere für Sicherheitsroboter, Transportroboter, Reinigungs- und Desinfektionsroboter sowie Pflegeroboter vielfältige Möglichkeiten. Interessant ist dabei nicht nur, wie diese mit Menschen interagieren und kommunizieren, sondern auch, wie sie untereinander interagieren. Da brauchen wir verlässliche Lösungen, dass sich die Roboter untereinander abstimmen und nicht im Weg rum stehen. Dabei kann wie beim automatisierten Fahren eine Infrastruktur helfen. Die kleine Firma Jinn-Bot Robotics hat so etwas beispielsweise über Kameras in Gebäuden realisiert, mit denen die Roboter kommunizieren. Überhaupt kommen die Innovationen in dem Bereich überwiegend von Start-ups und KMU. Aber es gibt leider keine Gesetzgebung und Abnahmesicherheit, die diese Entwicklungen unterstützt, daher sterben viele wieder weg.

Was macht Roboter sozial? Reicht eine physiognomische Verniedlichung?

Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Sie können über fünf Dimensionen bestimmt werden, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen, also Aussehen, Stimme, Verhaltensweisen, sowie – im Zentrum – den Nutzen für Lebewesen. Ich spreche also ausdrücklich auch von Tieren – soziale Roboter können nicht nur für die Anforderungen von Menschen, sondern auch von Tieren geschaffen werden. Eine Verniedlichung muss nicht sein – soziale Roboter können auch ganz unniedlich sein.

Welche Erkenntnisse erwarten Sie für sich und Ihre Studenten mit Ihrem Projekt „HUGGIE“, dass sich mit der Umarmung durch soziale Roboter befasst?

Wir haben die erste Phase des HUGGIE-Projekts abgeschlossen. Eine Befragung mit fast 300 Personen hat interessante Ergebnisse erbracht: Die meisten Leute wollen nicht von einem Roboter umarmt werden. Wenn aber doch, dann wollen Männer von kleinen Robotern umarmt werden und Frauen von Großen. Grundsätzlich wollen wir untersuchen, wie man robotische Umarmungen so gestalten kann, dass die Akzeptanz wächst. Es ist bekannt, dass Wärme und Weichheit helfen. Wir wollen auch Geräusche und Vibrationen verwenden – und Gerüche, zum Beispiel der Duft nach Schokolade. Das werden wir in nächsten Tests vertiefen. Wir sagen nicht, dass solche Umarmungen sein müssen, und in normalen Situationen braucht es sie auch nicht. Vielleicht können sie aber zeitweilig helfen, bei Pandemien oder bei Marsflügen. Für Marsflüge entwickeln wir zum Beispiel SPACE THEA, einen Sprachassistenten, der Empathie und Emotionen zeigt, das heißt, diese simuliert, um Astronauten in bestimmten Situationen zu helfen. Derzeit läuft ein Forschungsprojekt im Auftrag der TA-SWISS zur Simulation von Empathie und Emotionen bei sozialen Robotern. Dieses werde ich auch in Lehrveranstaltungen thematisieren.

Prof. Dr. Oliver Bendel sprich über vorherrschende Ängste in Bezug auf soziale Roboter

Welche Rolle spielen digitale Technologien dabei – Cloud, KI, maschinelles Lernen, Automatisierung etc.?

Hochentwickelte soziale Roboter sind selten singuläre Wesen, sie sind mit der Cloud verbunden und mit künstlicher Intelligenz ausgestattet. Wir brauchen diese Technologien, damit die Patienten eindeutig identifiziert werden können, zum Beispiel durch Unterstützung mit RFID, Gesichts- und Stimmerkennung. Studien belegen aber auch vorherrschende Ängste: zum Beispiel, dass der Roboter Geheimnisse weitererzählen kann, die ihm ein zu Pflegender anvertraut hat. Wo wird so etwas gespeichert oder wann wieder gelöscht? Da ergeben sich unendlich viele Fragen, die die informationelle Autonomie des Patienten berühren. Die Roboter dringen ja quasi als Spione in die Privat- und Intimsphäre ein, können eine Person fotografieren und filmen, Gespräche aufzeichnen, verletzen potenziell die informationelle Autonomie. Wir wollen aber keine Überwachung und Verfolgung, es sei denn, sie ist aus bestimmten Gründen gewünscht, etwa damit sich der Roboter an etwas erinnert oder im Notfall Hilfe herbeiruft. Das ist ein Dilemma – vor allem, wenn vieles über die Server von Amazon, Google und Microsoft läuft. Auf jeden Fall ist es besser, solche Dinge in einer Privat Cloud zu speichern. Würden Pflegeroboter vermehrt Fuß fassen, müsste man im übrigen auch prüfen, ob die betreuten Personen oder die Angehörigen eine Patientenverfügung unterschreiben sollten mit Einverständnis oder Ablehnung eines Robotereinsatzes.

*Prof. Dr. Oliver Bendel

Prof. Dr. Oliver Bendel ist Forscher und Dozent am Institut für Wirtschaftsinformatik der Fachhochschule Nordwestschweiz und Autor der Bücher „Pflegeroboter“ und „Maschinenliebe“.

Prof. Dr. Oliver Bendel
© Oliver Bendel
Professor Dr. Oliver Bendel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Bitte füllen Sie dieses Feld aus
Bitte füllen Sie dieses Feld aus
Bitte gib eine gültige E-Mail-Adresse ein.
Die folgenden im Rahmen der DSGVO notwendigen Bedingungen müssen gelesen und akzeptiert werden:
Durch Abschicken des Formulares wird Ihr Name, E-Mail-Adresse und eingegebene Text in unserer Datenbank gespeichert. Weitere Informationen finden Sie in unserer Datenschutzerklärung.

Menü