Der Text-Roboter ChatGPT zeigt der Welt gerade deutlich, wie gut bzw. „echt wirkend“ KI sein kann. Die Ergebnisse, die der Text-Roboter ausspuckt, verblüffen selbst Fachleute und Journalisten.
Was genau den Hype ausgelöst hat und welchen Stellen Datenschützer aber schon jetzt Probleme auf die Welt zu rollen sehen, erfahren Sie bei uns..
ChatGPT – der Text-Roboter von OpenAI
Dem US-amerikanischen Unternehmen OpenAI ist mit dem Text-Roboter ChatGPT, der offiziell schon am 30. November 2022 gelauncht wurde, scheinbar der ganz große Wurf gelungen. Sämtliche Medien berichten von der sprachlichen Intelligenz des künstlichen Schreiberlings und selbst Journalisten lassen sich mitunter zu Lobeshymnen hinreißen. Und tatsächlich muss wohl auch jeder neidlos anerkennen, dass die Kompetenz des Text- und Sprach-Roboters überdurchschnittlich hoch ist. Nicht nur für Laien sind die Texte von ChatGPT nicht oder kaum von welchen zu unterscheiden, die von einer realen Person verfasst wurden. Beziehungsweise: Nicht selten sind sie sogar besser, denn bekanntermaßen liegt das Schreiben auch nicht jedem.
Teilweise wird daher bereits darüber spekuliert, ob die Technologie hinter ChatGPT der nächste, richtig große Wurf ist – in etwa vergleichbar mit dem ersten iPhone oder dem Siegeszug der Bitcoins. Aber wie immer gilt: Wo Licht ist, da ist auch Schatten. Einige Datenschützer und Wissenschaftler sehen die Entwicklung der KI im Allgemeinen und des Text-Roboters im Speziellen durchaus kritisch.
Die innovative Sprachsoftware mit Künstlicher Intelligenz
Das Besondere an ChatGPT ist die bereits erwähnte Sprachkompetenz. Selbige ist in keiner Weise vergleichbar mit den oft recht holprigen Google-Translate-Übersetzungen, die Ottonormalverbraucher beispielsweise kennt. Im Gegenteil: Der OpenAI Text-Roboter vermag ganze Geschichten zu erzählen, Reden zu schreiben oder Artikel wie diesen zu verfassen – binnen Sekunden, ohne weiteres menschliches Zutun.
Der Hype um die KI-Sprachsoftware kommt daher nicht von ungefähr und scheinbar existieren unendlich viele Anwendungsbereiche. Damit der Roboter aber das kann, was er kann, verbirgt sich unter der Haube eine nahezu unvorstellbare Menge an Daten. Und an diesem Punkt ergibt sich der Diskussionsstoff. Zum einen geht es um die Sicherheit und den Schutz von mitunter sensiblen Daten.
Zum anderen – und das ist fast wichtiger – stellt sich die Frage nach einer gesellschaftlichen Verantwortung und Moral. Denn wer könnte ansonsten schon verhindern, dass der künstlich intelligente Text-Roboter nicht von der dunklen Seite der Macht missbraucht wird? Um mit Fake-News und Hass nur zwei Schlagworte zu nennen, die diesbezüglich relevant sein könnten.
ChatGPT in der Kritik
Einige Forscher und Experten für Entwicklungen rund um die Künstliche Intelligenz stehen ChatGPT durchaus kritisch gegenüber. Ruth Stock-Homburg, BWL-Professorin an der TU Darmstadt, sagt: „Im Moment ist dieser Hype. Ich habe das Gefühl, dass man dieses System kaum kritisch reflektiert.“ Und mit ihrer Meinung ist sie nicht allein, auch andere Wissenschaftler warnen vor Sicherheitslücken oder Aspekten rund um den Datenschutz.
Ein anderer Kritikpunkt ist, dass sich das System laut Experten recht leicht manipulieren lässt. In einem Fallbeispiel zeigte Sven Schultze, Experte für Sprach-KI, auf, dass ChatGPT sich unter bestimmten Voraussetzungen zu rassistischen Äußerungen hinreißen lässt. Ebenso war es möglich, auf eine Frage bezüglich des Klimawandels mit dem Link zu einer Webseite zum Thema Diabetes zu antworten. Derartige Irrläufer passieren, wenn die KI in ihrer Datenbasis keine konkrete Antwort findet.
Dabei darf man nicht vergessen, dass die Daten vornehmlich aus dem Jahr 2021 stammen. Demnach ist Angela Merkel noch Bundeskanzlerin. Schultze sieht dadurch die Gefahr, dass die Sprach-KI „dann einfach lügt oder bei sehr speziellen Themen Informationen erfindet“.
Sicherheitsmechanismen und Gefahren für das Bildungswesen
Der Text- und Sprach-Roboter ist durchaus mit Sicherheitsmechanismen ausgestattet und gibt beispielsweise entsprechende Warnung bei Fragen mit kriminellen Inhalten heraus. Auf der anderen Seite liefert er aber genauso entsprechende Anleitungen für einen Einbruch und gibt den wertvollen Hinweis, dass man auch Gewalt oder Waffen einsetzen könne, wenn die Bewohner zu Hause seien. Ebenso kann man sich durch ChatGPT zeigen lassen, wie man eine Phishing-Mail idealerweise aufbauen sollte.
Ein anderes Problem, das künftig möglicherweise auftreten könnte, betrifft den Bildungsbereich. ChatGPT statt Wikipedia – und Lernende müssen sich nicht mehr selbst damit abmühen, bestehende Quelltexte umzuschreiben. Zwar finden die wichtigen Prüfungen in Präsenz und ohne Smartphone statt, für Hausaufgaben, Referate oder Facharbeiten könnte die Text- und Sprach-KI aber durchaus das neue Wunderwerkzeug sein. Und derartige Schummeleien sind aufgrund der Individualität und Qualität der Texte nur schwer zu erkennen.
Google und Microsoft investieren in KI und Bots
Gerüchten zufolge soll der Google-Konzern angesichts der Entwicklungen bereits zittern und Angst davor haben, die weltweit größte Suchmaschine könne an Relevanz verlieren. In Anbetracht der häufig noch recht ungenauen Antworten gilt dieses Szenario allerdings mittelfristig als nicht sehr wahrscheinlich.
Dennoch scheint der Hype auch andere große Tech-Unternehmen gepackt zu haben. So will Microsoft gute zehn Milliarden Dollar in die Entwicklung eines eigenen Chatbots investieren. Selbiger soll dann Teil der hauseigenen Bing-Suchmaschine werden und still im Hintergrund laufen. Angeblich soll es übrigens schon nächsten Monat soweit sein, eine offizielle Bestätigung steht allerdings noch aus.
Fakt ist: Es bleibt weiterhin spannend. Aufhalten lassen sich die Entwicklungen nicht. Es gilt aber, mit Maß und Mitte zu unterscheiden, an welcher Stelle der Nutzen aufhört und das Risiko anfängt. Wir bleiben weiter dran!
Weiterführende Links:
t3n, Business Insider
Schreiben Sie einen Kommentar
* = Pflichtfelder
Bitte beachten Sie unsere Datenschutzerklärung