Von einer „Vermenschlichung der Technik“ spricht Prof. Dr. Dominikus Bönsch. Der Psychiater und Ärztliche Direktor am Bezirkskrankenhaus (BKH) Lohr blickt skeptisch auf die Entwicklung, wie wir Künstliche Intelligenz (KI) zunehmend in unser Leben integrieren. Immer mehr Menschen vertrauen menschlich klingenden Chatbots wie ChatGPT ihre Gefühle an. Sie führen Gespräche mit ihnen. Und fragen sie auch bei Lebensfragen und psychischen Erkrankungen um Rat. Im Interview erklärt Bönsch, welche Risiken und Chancen er durch den Einsatz von KI in Psychiatrie und Psychotherapie sieht.
Lohr
Ach, Herr Albert, was wollen Sie denn? Extra für Sie, Hinweis auf Kandidat Nummer 8, da Sie ja offenbar immer noch glauben, die Leitung einer bayerischen Forensik würde „irgendwem“ anvertraut und es ginge bei einer Institution im Zusammenhang mit „Sicherheit“ nicht um (CSU-)Politik und um parteipolitische und mediale „Verlässlichkeit“: https://www.csu.de/verbaende/ov/lohr/aktuelles/oktober-2019/die-kandidaten-der-lohrer-csu/
Gibts auch mal eine Argumentation von Ihnen, wo das Kürzel CSU nicht auftaucht? Diese Paranoia ist lächerlich.
Der Bundes-Innenminister ist nunmal bei der csu und findet Palantir so toll und der 'schwarze Sheriff' Hermann in Bayern findet diese Software auch super und ist bei der csu. Anscheinend hat diese Partei also wenig Probleme damit, persönliche Verantwortung und Sorgfalt an eine anonyme KI abzugeben. Da könnte man auch gleich das Amt des Ministerpräsidenten an eine KI übertragen; im Unterhalt wärs billiger und es müssten sogar deutlich weniger Tiere dafür verwurstet werden.
Ich kann in der Argumentation des Arztes wenig CSU lesen. Er spricht über allgemeinere Dinge. Wichtige Sachen. Das scheint zu überfordern, wenn die eigene Paranoia plötzlich überhand nimmt.
Im Interview mit Prof. Bönsch wird klar, dass er einen durchaus kritischen Blick hat auf Anwendung und Auswirkungen von KI-Technologie. Und genau diesen kritischen Blick vermisse auch ich bei politischen Entscheider*inne*n. Die gewissen drei Buchstaben erspare ich mir an dieser Stelle.
….“Ich habe in meinem Berufsleben vielleicht 50.000 Patientinnen und Patienten gesehen. Die Fallberichte könnte eine KI innerhalb von Minuten lesen.“….“Fallberichte“ und „Akten“ sind nicht die Wirklichkeit und vielfach kaum das Papier wert, auf dem sie stehen. Ein urmenschlicher Irrtum ist auch, Quantität mit Qualität zu „verwechseln“ und Mustererkennung mit Wissen bzw. Gewissheit. Was ist mit Gegenübertragung, was ist mit der „Einzigartigkeit“ des Menschen, die sich bereits darin spiegelt, dass keine zwei Menschen eine identische DNA haben? In den Händen der falschen Leute ist KI eine Gefahr und die CSU will auch hier wieder eifrig vorn dabei sein, indem sie unsere „Sicherheit“ einer Software eines Anti-Demokraten anvertraut: Palantir. Dies unter völliger Abgabe der Kontrolle. Leider wird dieses Thema im Interview ausgelassen, was meint denn Herr Bönsch als Leiter einer Forensik für „gefährliche“ Straftäter zu diesem Thema , dass eine KI „prognostizieren“ soll, wer „gefährlich“ ist?
https://rsw.beck.de/aktuell/daily/meldung/detail/usa-suizid-teenager-chatbot-ki-redefreiheit-meinungsfreiheit Es ist überhaupt keine gute Idee, künstliche Intelligenz komplett ungefiltert und unreguliert überall und für Alle zur Verfügung zu stellen und zu sagen: Da, machtmal, viel Spaß mit Euerem neuen Spielzeug! Oder würde es auch jemand sinnvoll finden, Kindern zur Einschulung einen Revolver in die Schultüte zu packen, mit der Anmerkung, damit bitte keinen Unfug anzustellen? Der natürlichen Intelligenz und dem sozialen Miteinander wird diese Technologie kaum zuträglich sein, (Selbst-)Betrug und Verlogenheit werden das Leben noch schlimmer beeinträchtigen, als das eh schon jetzt der Fall ist. Klar, die Technik existiert und sollte auch sinnvoll genutzt werden, aber zur Volksbelustigung ist KI nicht wirklich geeignet.
Um kommentieren zu können, müssen Sie angemeldet sein.
Registrieren sie sichSie haben ein Konto? Hier anmelden