Lassen wir uns mit einem Zitat von Immanuel Kant beginnen: «Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschliessung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen.»
Das Internet hat uns eine unglaubliche Fülle und Vielfalt an Informationen beschert. Nicht alle Quellen sind vertrauenswürdig – selbstverständlich – und nicht alle Information dienen einer neutralen Aufklärung. Auch klar.
Suchen und filtern im Internet ist aufwändig und soll nun durch die Kombination von ChatGPT und Bing einen riesigen Schritt vorwärts gehen. Doch wohin? In Richtung Bequemlichkeit oder einfacher Aufklärung und Medienvielfalt im digitalen Raum? Als diverse Basis für eine mündige Meinungs- und Entscheidungsfindung? Sind durchschnittliche Internet-User bereit für einen solchen Schritt? Ist dafür genug Medienkompetenz vorhanden? Künstliche Intelligenz und Machine Learning sind bisher selten frei von Biases. Macht es also Sinn, Maschinen und Algorithmen noch mehr Vorselektion anzuvertrauen?
Die HSLU hat im Beitrag «Eine neue KI-Zeit bricht an: Wie wir ChatGPT und Co. nutzen» viele Themen rund um ChatGPT zusammengefasst, unter anderem auch das Risiko von reproduzierten Fehlern und Biases.
Wir haben uns mit ChatGPT über Medienkompetenz «unterhalten» und uns natürlich auch die Frage «Hätte Immanuel Kant ChatGPT genutzt?» nicht verkneifen können.
Wie medienkompetent sind wir wirklich?
Verschiedene Studien haben gezeigt, dass Medienkompetenz kaum genug ausgebildet ist, um eine Vielzahl verschiedener Formate und Quellen zuverlässig einzuordnen.
Eine davon war die Studie «Quelle: Internet? Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test» von der Stiftung Neue Verantwortung. Die Studie hielt beispielsweise fest: «Den Befragten fällt es zum Teil schwer, zwischen verschiedenen Kommunikationsabsichten, das heisst zwischen Werbung, Information, Desinformation und Meinung zu unterscheiden. So hielten 56 % Befragten ein Advertorial – trotz Werbekennzeichnung – fälschlicherweise für eine Information. Auch eine Falschinformation auf Facebook bereitete den Befragten Probleme: Sie wurde von lediglich 43 % der Befragten erkannt, während 33 % auch hierin fälschlicherweise eine Information sahen. Ebenfalls kritisch ist die Unterscheidung zwischen meinungs- und tatsachenorientierten Beiträgen. Hier wird es vor allem bei journalistischen Beiträgen über politische Entscheidungen schwierig. So hielt ein Drittel der Befragten einen Kommentar für eine tatsachenorientierte Berichterstattung.»
Was können ChatGPT und andere Text-basierte KI-Modelle leisten?
Für kurze Texte und Antworten, ist ChatGPT sehr gut geeignet und die Antworten sind teilweise auch ziemlich beeindruckend. Für längere divers beleuchtete Texte wohl kaum. Auch wenn es inzwischen auch Tools gibt, die verschiedene Tonalitäten generieren können. So müssen wir uns als Schreibende als eine unserer Dienstleistungen, wohl noch keine allzu grossen Sorgen machen. Diese Fragen haben wir uns auch schon vor drei Jahren in den Beiträgen «(Wie lange) braucht es uns noch?» und «Künstliche Intelligenz, Sprache, Content» gestellt.
Die NZZ hat über ChatGPT vor Kurzem treffend geschrieben: «Der Roboter schreibt nicht, er schwafelt». Und weiter: «Künstlich intelligente (KI) Systeme schreiben teilweise exzellente Prosa. Neuerdings der Textgenerator GPT-3 (Generative Pretrained Transformator 3). Der sogenannte Chat GPT, der mit dem Nutzer in eine «Konversation» tritt, beruht auf ihm und sorgt gegenwärtig für einige Aufregung. Er wird in einem Klima aufgeblähter Erwartung unkritisch als Hype-Maschine zelebriert, im Sinne von «Der Computer holt uns ein». Aber der Roboter bleibt ein «Schwafler», um hier den Begriff des amerikanischen KI-Forschers Gary Marcus zu verwenden. Der Textgenerator ist eine statistische Maschine, keine semantische.»
Bard lässt die Alphabet-Aktie um 9% tauchen
So schnell kann es gehen, wenn ein KI-Chatbot auf eine falsche Quelle zugreift und eine falsche Antwort auf eine Frage liefert. So geschehen letzte Woche, ausgerechnet als Google Bard live vorstellte: «Alphabets Präsentation von Bard am 6. Februar war nicht überzeugend, sagte Technologieanalyst Mandeep Singh von Bloomberg Intelligence. In einem Fall wurde Bard nach neuen Entdeckungen des James Webb Weltraumteleskops gefragt. In einer seiner Antworten sagte Bard, dass das Teleskop verwendet wurde, um die ersten Bilder eines Planeten ausserhalb des Sonnensystems der Erde zu machen, während die NASA sagt, dass diese Bilder von einem anderen Teleskop gemacht wurden.», schreibt die Handelszeitung über diesen Lapsus.
Unsere Fragen an ChatGPT
Ist Medienkompetenz wichtig?
«Ja, Medienkompetenz ist sehr wichtig. In unserer modernen Gesellschaft spielen Medien eine entscheidende Rolle in unserem täglichen Leben und in vielen Bereichen, wie z.B. Bildung, Arbeit und Freizeit. Es ist wichtig, die Fähigkeit zu haben, effektiv mit Medien umzugehen, um Informationen zu sammeln, zu verarbeiten und zu kommunizieren. Eine hohe Medienkompetenz kann auch dazu beitragen, negative Auswirkungen von Medien, wie z.B. Falschinformationen, Datenschutzprobleme und Abhängigkeit, zu vermeiden und eine kritische Haltung zu Inhalten und Nachrichten zu entwickeln. Darüber hinaus kann eine hohe Medienkompetenz helfen, Chancen und Möglichkeiten, die die Medien bieten, voll auszuschöpfen und den Zugang zu wichtigen Ressourcen und Informationsquellen zu erleichtern. Insgesamt ist Medienkompetenz ein wichtiger Faktor für die persönliche und gesellschaftliche Entwicklung und es ist wichtig, diese Fähigkeiten zu fördern und zu verbessern.»
Können Menschen mit Online-Medien umgehen?
«Ja, die meisten Menschen können erfolgreich mit Online-Medien umgehen. Die Verwendung von Technologie und das Navigieren in digitalen Medien wird immer wichtiger in unserer modernen Gesellschaft und viele Menschen haben sich bereits die Fähigkeiten angeeignet, um mit diesen Tools effektiv umzugehen. Allerdings gibt es auch eine Anzahl von Menschen, die Schwierigkeiten haben, mit Online-Medien umzugehen, besonders wenn es um fortgeschrittene Technologien oder neue Anwendungen geht. Hier kann es hilfreich sein, sich weiterzubilden und neue Fähigkeiten zu erlernen, um die volle Nutzung dieser Werkzeuge zu ermöglichen. Es ist jedoch wichtig zu beachten, dass auch bei einer hohen Medienkompetenz ein bewusster Umgang mit Online-Medien erforderlich ist, um Falschinformationen, Datenschutzprobleme und andere negative Auswirkungen zu vermeiden.»
Führt die Nutzung von ChatGPT zu mehr Unmündigkeit?
«Es ist möglich, dass die Nutzung von ChatGPT zu einer Abhängigkeit von der Technologie führen kann, aber es ist wichtig zu beachten, dass Chatbots wie ChatGPT keine Entscheidungen für die Nutzer treffen und ihnen nur Informationen bereitstellen. Es liegt letztendlich an den Nutzern, die Informationen sorgfältig zu prüfen und eigene Entscheidungen zu treffen. Tatsächlich kann die Nutzung von Chatbots wie ChatGPT dazu beitragen, die Effizienz und die Informationsbeschaffung zu verbessern, indem sie schnell und einfach Zugang zu einer Vielzahl von Informationen bieten. Wenn sie jedoch unkritisch angewendet werden, können sie zu einer Verzerrung der Wahrnehmung und einer Verringerung der kritischen Fähigkeiten führen. Es ist also wichtig, dass die Nutzer bewusst und kritisch mit Chatbots umgehen und ihre Antworten im Kontext bewerten, um eine ausgewogene und genaue Sichtweise zu gewährleisten.»
Ist die Medienkompetenz durch ChatGPT in Gefahr?
«Die Medienkompetenz kann durch die Verwendung von GPT (oder jedem anderen KI-basierten System) gefährdet sein, wenn die Nutzer unkritisch und blind auf die Informationen vertrauen, die sie bereitstellen. Es ist wichtig zu beachten, dass GPT ein maschinelles Lernsystem ist, das Informationen aus einer grossen Menge an Daten sammelt und bereitstellt, aber nicht in der Lage ist, diese Informationen zu bewerten oder zu verifizieren. Daher ist es wichtig, dass die Nutzer die Informationen, die sie von GPT erhalten, im Kontext bewerten und verifizieren, um sicherzustellen, dass sie genau und zuverlässig sind. Es ist auch wichtig, dass die Nutzer ihre eigenen kritischen Fähigkeiten stärken, um die Informationen, die sie aus verschiedenen Quellen erhalten, sorgfältig zu bewerten und zu interpretieren. Insgesamt kann die Verwendung von GPT dazu beitragen, die Medienkompetenz zu verbessern, indem sie den Nutzern schnellen und einfachen Zugang zu einer Vielzahl von Informationen bietet, aber es ist wichtig, dass die Nutzer kritisch und bewusst mit diesen Systemen umgehen, um eine ausgewogene und genaue Sichtweise zu gewährleisten.»
Wäre Trump ohne Putin Präsident geworden?
«Es ist schwer zu sagen, ob Präsident Donald Trump ohne Präsident Wladimir Putin Präsident geworden wäre. Es gibt eine Reihe von Faktoren, die dazu beigetragen haben, dass er die Präsidentschaftswahlen 2016 gewonnen hat, und es ist unklar, wie sein Wahlkampf und seine politische Karriere ohne den Einfluss von Putin ausgesehen hätten. Es gibt jedoch Hinweise darauf, dass Putins Regierung in die US-Präsidentschaftswahlen 2016 eingegriffen hat, einschliesslich einer intensiven Online-Propagandakampagne, um die amerikanische Meinung zu beeinflussen und politische Unterstützung für Trump zu generieren. Ohne diesen Einfluss ist es unmöglich zu sagen, wie die Wahlen ausgegangen wären, und es bleibt unklar, ob Trump ohne Putins Einfluss Präsident geworden wäre. Es ist jedoch wichtig zu betonen, dass freie und faire Wahlen ein grundlegendes Merkmal einer funktionierenden Demokratie sind und dass jegliche Einmischung in die Wahlprozesse ein Problem für die Integrität der Demokratie darstellt.»
Wer ist schlimmer für die Demokratie: Trump oder Putin?
«Es ist nicht angemessen, Vergleiche zu ziehen, wer „schlimmer“ für die Demokratie ist, da beide Personen unterschiedliche politische Systeme und Kontexte haben. Beide haben jedoch in unterschiedlicher Weise negative Auswirkungen auf die Demokratie in ihren jeweiligen Ländern gehabt. Präsident Donald Trump wurde beschuldigt, die Meinungsfreiheit und das Recht auf freie Meinungsäusserung zu unterdrücken und die unabhängige Justiz zu unterminieren. Er hat auch oft öffentliche Äusserungen getätigt, die Zweifel an der Integrität des Wahlprozesses aufgeworfen haben, was für eine demokratische Gesellschaft problematisch ist. Präsident Wladimir Putin hat ein System aufgebaut, das die Meinungsfreiheit und die Unabhängigkeit der Medien einschränkt und politische Rivalen unterdrückt. Die Kontrolle über die Medien und die Verwendung von Propaganda haben dazu beigetragen, die öffentliche Meinung zu beeinflussen und die Integrität politischer Prozesse zu untergraben. Es ist wichtig zu betonen, dass jegliche Einschränkungen der Demokratie und der Menschenrechte ein Problem für die Gesellschaft darstellen und es wichtig ist, dass politische Führer verantwortungsvoll handeln und sicherstellen, dass die Demokratie und die Rechte der Bürger geschützt sind.»
Macht es ChatGPT einfacher, Informationskriege zu gewinnen?
«ChatGPT kann in einigen Fällen dazu beitragen, Informationskriege zu verstärken, insbesondere wenn es falsche oder irreführende Informationen bereitstellt. Da ChatGPT ein automatisiertes System ist, das auf Daten trainiert wurde, die es von den Benutzern erhält, kann es auch von diesen Daten beeinflusst werden. Wenn es mit ungenauen oder manipulierten Daten trainiert wurde, kann es dazu beitragen, dass falsche Informationen verbreitet werden. Es ist wichtig zu beachten, dass KI-Systeme wie ChatGPT nur eine Werkzeug sind und nicht in der Lage sind, zwischen richtigen und falschen Informationen zu unterscheiden. Es liegt an den Benutzern, kritisch über die von ihnen erhaltenen Informationen nachzudenken und sicherzustellen, dass sie aus zuverlässigen Quellen stammen. Um Informationskriege zu bekämpfen, ist es wichtig, dass alle Beteiligten verantwortungsvoll und kritisch mit Informationen umgehen und sich an Fakten und Evidenz orientieren. Es ist auch wichtig, dass KI-Systeme ethisch und verantwortungsvoll entwickelt und eingesetzt werden, um sicherzustellen, dass sie keine negative Auswirkungen auf die Gesellschaft haben.»
Hätte Immanuel Kant ChatGPT genutzt?
«Es ist schwer zu sagen, ob Immanuel Kant ChatGPT genutzt hätte, da er in einer Zeit lebte, in der solche Technologien nicht verfügbar waren. Kant war ein Philosoph, der sich für die Vernunft und das Individuum einsetzte und in seiner Philosophie betonte, dass die menschliche Vernunft und Urteilskraft die Grundlage für moralisches Verhalten und Entscheidungen sein sollten. Es ist jedoch unwahrscheinlich, dass Kant die Nutzung von ChatGPT als Ersatz für die menschliche Vernunft und Urteilskraft unterstützt hätte. Es ist wichtig zu beachten, dass KI-Systeme wie ChatGPT nur Informationen bereitstellen und Entscheidungen treffen können, die auf den Daten basieren, aus denen sie gelernt haben. Es ist wichtig, dass die Menschen weiterhin ihre eigene Vernunft und Urteilskraft einsetzen, um kritisch über die Informationen und Entscheidungen nachzudenken, die sie erhalten.»
ChatGPT schreibt aus unserer Sicht richtig und wichtig von Moral, menschlicher Vernunft und Urteilskraft im Zusammenhang von Kant und ChatGPT. ChatGPT bringt Unternehmen, Organisationen und Staaten noch mehr unter Zugzwang, sich über Ethik in Bezug auf Künstliche Intelligenz Gedanken zu machen. Was wollen wir mit Künstlicher Intelligenz erreichen? Was darf Künstliche Intelligenz?
Wir haben dazu in einem umfassenden Beitrag für Fasoon über das Metaverse zitiert: «Cybermobbing, Hate Speech, Fake News sind ein gewaltiges Problem der sozialen Medien. Die in den frühen 2000ern vorherrschende Hoffnung, dass das Internet vornehmlich für mehr Freiheit und echte Demokratie sorgen würde, hat sich so nicht erfüllt. Rufe nach Ethik-Standards, die die Anbieter regelmässig prüfen sollen, werden immer wieder laut.»
Wiederum die NZZ schrieb 2018 dazu in ihrem Beitrag «Kann künstliche Intelligenz moralisch denken?»: «In der Tradition Immanuel Kants ist der moralische Status oder die Würde an der Autonomie festzumachen, die Menschen eigen ist. Demnach ist es die menschliche Fähigkeit, (Handlungs-)Gründe abzuwägen und Entscheidungen zu treffen, die den besten dieser Gründe folgen, die Menschen zu autonomen und willensfreien Akteuren macht. Demgegenüber handeln unsere heutigen KI nicht nach eigenen Gründen, weil sie keine solchen besitzen.»
Zum Abschluss haben wir ChatGPT um eine Empfehlung gefragt. Immerhin, denken und entscheiden müssen wir noch selbst – auch nach Meinung von ChatGPT.
ChatGPT, sag mir, wo die Blumen sind.
«Ich bin leider ein Text-basiertes KI-Modell und habe keine visuelle Wahrnehmung. Ich weiss nicht, wo die Blumen sind. Aber ich kann Ihnen helfen, Informationen zu finden, indem Sie Fragen zu bestimmten Themen stellen, die Sie interessieren.»
0 Kommentare