Fühlt sich das noch gut an? Ein quantitativ-qualitatives Forschungsprojekt zur Akzeptanz der Künstlichen Intelligenz im Alltag

KI-Akzeptanz: Studie zur Alltagstauglichkeit

Dokumentinformationen

Autor

Rebecca Beiter

instructor Prof. Dr. Oliver Zöllner
Schule

Hochschule der Medien Stuttgart

Fachrichtung Digitalität und Gesellschaft
Ort Stuttgart
Dokumenttyp Studie (Masterarbeit)
Sprache German
Format | PDF
Größe 4.20 MB

Zusammenfassung

I.Der aktuelle Forschungsstand zur Künstlichen Intelligenz KI

Die Studie untersucht die Akzeptanz von Künstlicher Intelligenz (KI) im Alltag, insbesondere im Kontext von Sprachassistenten wie Amazon Alexa. Der Fokus liegt auf der Frage, bis zu welcher Grenze der Einsatz KI-basierter Anwendungen als ‚gut‘ empfunden wird. Die gesellschaftliche Debatte um KI ist geprägt von dystopischen Visionen eines Überwachungsstaats und positiven Erwartungen hinsichtlich Zeitersparnis und erhöhter Produktivität. Der Studie zufolge nutzen viele Menschen KI-Anwendungen unbewusst (z.B. Spamfilter), während die Bekanntheit und Akzeptanz bei Anwendungen wie Smart Home Assistenten und Sprachassistenten variiert. Eine TÜV-Studie (Verband der TÜV e.V. 2019) zeigt eine ambivalente Einstellung der Deutschen gegenüber KI: 46% empfinden etwas Positives, 28% eher Negatives. Wichtige Einflussfaktoren sind Datenschutz, Vertrauen in gesellschaftliche Kontrollmechanismen und die Wahrnehmung durch große Tech-Unternehmen wie Google und Amazon. Die Akzeptanzgrenze, die sogenannte „creepy line“, ist unscharf und kontextabhängig.

1. KI als Zukunftstechnologie und gesellschaftliche Debatte

Künstliche Intelligenz (KI) wird als Schlüsseltechnologie für wirtschaftliches Wachstum in Deutschland und Europa betrachtet. Gleichzeitig dringt KI immer stärker in den Alltag ein, oft unbemerkt von den Nutzern – ein Beispiel ist Amazons Echo Dot mit Alexa. Die gesellschaftliche Diskussion ist geprägt von gegensätzlichen Perspektiven: Einerseits die dystopische Furcht vor Datenschutzverletzungen und einem Überwachungsstaat, andererseits die Aussicht auf Zeitersparnis, Erleichterungen im Arbeits- und Pflegebereich sowie gesteigerte Produktivität und Wertschöpfung. Diese Spannungen zwischen den potenziellen Vorteilen und den damit verbundenen Risiken bilden den zentralen Ausgangspunkt der vorliegenden Forschungsarbeit zur Akzeptanz von KI im Alltag. Die zunehmende Verbreitung von KI-Anwendungen in Smartphones, Apps, Haushaltsgeräten und Autos unterstreicht die Notwendigkeit einer umfassenden Untersuchung ihrer gesellschaftlichen Auswirkungen. Der Vergleich mit dem in China implementierten Social Scoring System veranschaulicht die potenziellen negativen Konsequenzen für die Individualität und Autonomie des Einzelnen, deutlich macht die Notwendigkeit ethischer Überlegungen im Umgang mit KI.

2. Verbreitung von KI Anwendungen im Alltag und kritische Stimmen

KI-basierte Anwendungen sind bereits in vielen Bereichen des täglichen Lebens präsent, von persönlichen Assistenten wie Alexa und Google Home bis hin zu Fitness-Trackern und Bonussystemen. Diese Systeme überwachen und analysieren unser Verhalten, was zu Effizienzsteigerungen für Unternehmen führt und die Tendenz zur verstärkten Nutzung dieser Technologien vorantreibt. Trotz des Hype um KI mehren sich kritische Stimmen, die auf Risiken im Bereich Datenschutz hinweisen und die Unwissenheit der Nutzer über die Funktionsweise und die Tragweite von KI betonen. Ein Beispiel für die negativen Folgen ist das in China praktizierte Social Scoring, das als Überwachungsinstrument eingesetzt wird und die Individualität der Bürger beeinträchtigt. Die Akzeptanz von KI wird somit stark durch diese Ambivalenz zwischen den Vorteilen und den potentiellen Gefahren geprägt. Die Studie von Kreutzer und Sirrenberg (2019) unterstreicht den tiefgreifenden und nachhaltigen Einfluss von KI auf das Leben von Menschen und Unternehmen im Kontext der Digitalisierung. Die Studie will diese ambivalente gesellschaftliche Wahrnehmung genauer untersuchen und die Akzeptanzgrenzen der Bevölkerung ergründen.

3. Akzeptanz von KI in Deutschland Ergebnisse einer TÜV Studie

Eine repräsentative TÜV-Studie (Verband der TÜV e.V. 2019) mit 1000 Befragten liefert Einblicke in die Akzeptanz von KI in Deutschland. Die Studie zeigt ein geteiltes Meinungsbild: 46% der Befragten empfinden positive Gefühle gegenüber KI, 28% negative. 21% äußerten sich neutral. Die Analyse der emotionalen Reaktionen auf Medienberichte über KI verdeutlicht die Ambivalenz: Während 53% Interesse und Neugier zeigen und 36% erwartungsvoll sind, äußern 43% Skepsis und 25% Verunsicherung. Die Studie zeigt außerdem, dass viele KI-Anwendungen im Alltag unbemerkt genutzt werden (z.B. Spamfilter). Während 74% Spamfilter verwenden, wissen nur 28% von deren KI-basierter Funktionsweise. Im Gegensatz dazu ist die KI-Nutzung bei Suchmaschinen (47%) und Smart Home Anwendungen (17%) bekannter, obwohl die Akzeptanz von Smart Homes mit KI-Unterstützung gering ist (nur 35% würden in ein solches Zuhause ziehen). Diese Ergebnisse unterstreichen die Notwendigkeit, die Akzeptanz von KI besser zu verstehen und die Öffentlichkeit über die Technologie aufzuklären.

4. Einflussfaktoren auf die Akzeptanz von KI

Die Akzeptanz von KI hängt von verschiedenen Faktoren ab. Ein entscheidender Aspekt ist die Wahrnehmung von Fairness. Kilbertus vom Max-Planck-Institut betont die Bedeutung von Fairness im sozialen Kontext, da KI-Systeme Diskriminierung verursachen können, wenn sie Fairness nicht so interpretieren wie der Mensch. Grunwald (2003) argumentiert, dass Vertrauen in gesellschaftliche Kontrollmechanismen die Akzeptanz von Technik erhöht. Die TÜV-Studie bestätigt dies: 85% der Befragten plädieren für unabhängige Prüfungen von KI-Produkten vor Markteinführung. Große Technologieunternehmen wie Google, Facebook und Apple beeinflussen maßgeblich die Wahrnehmung und Nutzung von KI. Die breite Nutzung von Google als Suchmaschine, trotz bekannter Manipulation der Suchergebnisse (Kurz; Rieger 2017), illustriert dies. Webb argumentiert, dass die Akzeptanz dieser Unternehmen und ihrer Praktiken auf dem enormen Wohlstand und den komfortablen Diensten beruht, die sie bieten. Die Akzeptanzgrenze (“creepy line”) für intelligente Spracherkennungssysteme ist noch nicht definiert; während manche die Entscheidungsentlastung durch KI schätzen, stehen andere ihr skeptisch gegenüber. Die Technologieentwicklung prägt oft die Akzeptanz, nicht umgekehrt, und große Tech-Unternehmen nutzen die Daten von Millionen Nutzern, um KI-Wissen zu generieren und die Gesellschaft von ihren Technologien abhängig zu machen (Morozov 2017).

II.Ethik der Künstlichen Intelligenz

Die Studie beleuchtet die Ethik der Künstlichen Intelligenz. Ethik wird als ‚Theorie des richtigen Handelns‘ definiert. Im Kontext der Digitalisierung wird die digitale Ethik betrachtet, die ethische Fragen rund um die Entwicklung und Anwendung digitaler Technologien, einschließlich Datenschutz und Privatsphäre, untersucht. Ein weiterer Aspekt ist die Maschinenethik, die sich mit der Frage beschäftigt, wie eine ethische KI geschaffen werden kann. Die Autoren zitieren Tsvasman und Schild („AI-Thinking“), die die medial verbreiteten Ängste vor einer allmächtigen KI relativieren und auf die Bedeutung eines realistischen Verständnisses von KI hinweisen.

1. Ethik als Theorie des richtigen Handelns

Der Abschnitt beginnt mit der Definition von Ethik als „Theorie des richtigen Handelns“ oder „Lehre zum guten Leben“ (Grimm et al. 2019; Wahler 2018). Die Schwierigkeit, die Begriffe ‚gut‘ und ‚richtig‘ präzise zu definieren, wird hervorgehoben, ebenso wie die Vielfalt an ethischen Ansätzen und Interpretationen. Die Bedeutung von Normen, Regeln und moralischen Prinzipien im Kontext ethischer Überlegungen wird betont. Die historische Entwicklung des Ethikbegriffs wird kurz skizziert, beginnend mit der Antike und dem Streben nach dem guten Leben, über das Mittelalter mit seinen Tugenden und Pflichten bis zur heutigen Reflexionstheorie der Moral. Es wird deutlich gemacht, dass es kein einheitliches Verständnis von Ethik gibt, und dass zahlreiche verschiedene Formen und Ansätze existieren. Der Fokus liegt auf der Moral als Grundlage für gesellschaftliche Normen und Regeln, die aus dem Zusammenleben von Menschen entstehen. Ethik als Teilgebiet der Moralphilosophie dient somit als Orientierungshilfe für Entscheidungen in bestimmten Situationen, daher die Bezeichnung „Theorie des richtigen Handelns“.

2. Digitale Ethik und Maschinenethik

Die Digitale Ethik wird als Erweiterung der traditionellen Ethik dargestellt, die analysiert, welche Handlungsoptionen sich aus der Entwicklung und Anwendung digitaler Technologien ergeben (Grimm et al. 2019). Die Komplexität beider Bereiche – Ethik und Digitalität – wird als gemeinsamer Nenner hervorgehoben, da beide Begriffe vielschichtig und nicht immer eindeutig definiert sind. Diese Komplexität verdeutlicht die Notwendigkeit ethischer Überlegungen im Zusammenhang mit der rasanten technologischen Entwicklung. Die Unsicherheit, Überforderung oder Leichtsinnigkeit beim Umgang mit neuen Technologien wird angesprochen, ebenso die Bedeutung von Aspekten wie Sicherheit, Datenschutz und Privatsphäre. Die Maschinenethik stellt eine weitere Perspektive dar und befasst sich mit der Frage, wie eine ethische KI geschaffen werden kann, die moralische Entscheidungen trifft (Bartneck et al. 2019). Der essentielle Unterschied zwischen menschlicher Moralität und der (derzeitigen) Unfähigkeit von KI, moralische Entscheidungen zu treffen, wird deutlich. Es wird angedeutet, dass die Frage der Ethik im Umgang mit KI neu definiert werden muss, sobald Maschinen moralisch auf Augenhöhe mit dem Menschen agieren.

3. KI und die Schaffung einer verbesserten Lebenswelt

Tsvasman und Schild („AI-Thinking“) relativieren die medial verbreiteten Ängste vor einer allmächtigen KI, indem sie Maschinen und Roboter als Objekte definieren, die nicht mit Menschen konkurrieren können (Tsvasman 2019). Sie betonen, dass das ursprüngliche Ziel der KI-Entwicklung die Schaffung einer „verbesserten“ Lebenswelt war. Ein Verständnis von KI wird gefordert, das sowohl die durch neue Technologien gelösten Probleme als auch die neu entstandenen Herausforderungen berücksichtigt (Tsvasman 2019). Österle („Life Engineering“) plädiert für einen stärker realitätsbezogenen Umgang mit KI, abseits von utopischen und dystopischen Zukunftsvisionen. Der Abschnitt betont also einen pragmatischen Ansatz, der die positiven Potenziale von KI zur Lösung realer Probleme nutzt und gleichzeitig die damit verbundenen Risiken und ethischen Herausforderungen berücksichtigt. Es wird die Notwendigkeit einer ausgewogenen Betrachtungsweise gefordert, die die Chancen und Risiken der KI-Technologie gleichermaßen berücksichtigt und ein verantwortungsbewusstes Handeln im Umgang mit KI propagiert.

III.Quantitative Untersuchung zur KI Akzeptanz

Die quantitative Untersuchung mittels Online-Befragung (Unipark.de) ermittelte die Akzeptanz von KI-Anwendungen. Es wurden Likert-Skalen und offene Fragen eingesetzt. Die Stichprobengröße erlaubte keine repräsentativen Schlüsse; die Befragten waren hauptsächlich jüngere, gebildete Personen aus dem Raum Stuttgart. Die Ergebnisse zeigen eine ambivalente Haltung gegenüber KI: Vorteile der Digitalisierung werden geschätzt, gleichzeitig wird Datenschutz und die Autonomie des Nutzers betont. Ein Zusammenhang zwischen Reflexionsgrad und Alter wurde festgestellt.

1. Forschungsdesign und Methodik der quantitativen Untersuchung

Die quantitative Untersuchung hatte einen explorativen Charakter, da der Kenntnisstand zum Thema gering war. Es wurde eine Online-Befragung über Unipark.de durchgeführt, eine Methode, die aufgrund ihrer Schnelligkeit und Effizienz immer beliebter wird und von 90% der deutschen Bevölkerung genutzt werden kann (Eurostat 2020). Der Fragebogen enthielt Likert-Skalen und offene Fragen, um sowohl standardisierte als auch individuelle Antworten zu erhalten. Die Wahl der Erhebungsmethode berücksichtigte den explorativen Charakter der Studie und die Notwendigkeit, Hypothesen zu testen, um einen Ursache-Wirkungs-Zusammenhang zu analysieren. Die Studie dient als Grundlage für zukünftige Prognosen und Evaluierungen, ein Längsschnittdesign wurde jedoch aufgrund des begrenzten Rahmens nicht umgesetzt (Stein 2019). Die Gütekriterien Objektivität, Reliabilität und Validität wurden berücksichtigt. Die Durchführungsobjektivität wurde durch einen standardisierten Fragebogen sichergestellt, während die Auswertungsobjektivität durch sorgfältige Dokumentation gewährleistet wurde. Die Interpretationsobjektivität bleibt aufgrund des subjektiven Charakters der Interpretation in der Sozialforschung eine Herausforderung (Krebs; Menold 2019).

2. Datenaufbereitung und deskriptive Auswertung

Nach der Datenerhebung wurden die Daten zunächst auf Plausibilität geprüft, um fehlerhafte oder unvollständige Angaben zu identifizieren. Die Rohdaten von Unipark.de wurden über Excel importiert. Um die Daten effizient zu analysieren, wurden den Fragen und Aussagegruppen Variablennamen und Nummern zugewiesen (eine Übersicht im Anhang). Die deskriptive Auswertung umfasste die Berechnung von Mittelwerten und die prozentuale Darstellung der Ergebnisse der Likert-Skalen. Filterfragen hatten im Allgemeinen einen nominalen Charakter, um Zuordnungen vorzunehmen. Es wurden sowohl geschlossene (Alternativ- und Einfach-Auswahlfragen) als auch offene und halboffene Fragen verwendet, um die Komplexität der Fragestellungen angemessen zu erfassen (Möhring; Schlütz 2019; Raithel 2006). Die Auswertung der offenen Fragen wurde als einfach eingeschätzt, was die Berücksichtigung dieser Fragetypen im Fragebogen ermöglichte. Weitere auswertungsbezogene Details werden im Kapitel 4.5 erläutert.

3. Ergebnisse und Limitationen der quantitativen Untersuchung

Das Forschungsdesign mit aufeinander aufbauenden Ebenen funktionierte im Prinzip gut und führte die Befragten von bekannten zu allgemeineren Themen. Allerdings gab es auch Einschränkungen. Der knappe Zeitrahmen erschwerte die exakte Operationalisierung der Hypothesen im Vorfeld, was die Validität der Messung beeinträchtigte. Nicht alle Hypothesen konnten abgefragt werden, was die Notwendigkeit weiterer Forschung verdeutlicht. Die Stichprobengröße erlaubte keine repräsentativen Schlüsse, die Stichprobenzusammensetzung war unausgewogen, hauptsächlich jüngere, gebildete Personen aus dem Umfeld des Forschungsteams. Dies führte zu einer nicht kontrollierbaren Erhebungssituation und verzerrte die Messung. Die Ergebnisse zeigten eine Bereitschaft der Probanden, die Vorteile der Digitalisierung zu nutzen, obwohl der technologische Fortschritt als zwangsläufig angesehen wurde. Ein Zusammenhang zwischen Reflexionsgrad und Alter der Befragten wurde festgestellt. Die widersprüchlichen Ergebnisse (z.B. Akzeptanz von Belohnungen durch Daten, Ablehnung von Bestrafungen) unterstreichen die Komplexität der KI-Akzeptanz.

IV.Qualitative Untersuchung zur KI Akzeptanz

Die qualitative Untersuchung nutzte narrative Interviews und Szenariotechniken, um die subjektiven Meinungen und Akzeptanzgrenzen von Nutzern von KI-Anwendungen, insbesondere Amazon Alexa, zu erforschen. Die Methode der qualitativen Inhaltsanalyse nach Mayring wurde zur Auswertung verwendet. Die Interviews zeigten, dass die Akzeptanz von KI stark kontextabhängig und individuell variiert. Die Probanden akzeptieren KI-basierte Empfehlungen, lehnen aber eine autonome Entscheidungsgewalt der KI ab. Das Konzept des ‚selbst initiierten Autonomieverlustes‘ wurde eingeführt, um die Bereitschaft zur Datenabgabe für persönliche Vorteile zu beschreiben.

1. Forschungsfokus und Methodik der qualitativen Untersuchung

Im Gegensatz zur quantitativen Untersuchung zielte dieser Teil der Forschungsarbeit darauf ab, individuelle, subjektive Meinungen und Erfahrungen mit KI-Anwendungen, insbesondere Amazon Alexa, zu erforschen. Der Fokus lag auf den persönlichen Motiven für die Nutzung von KI, dem Umgang mit möglichen Risiken und der Bereitschaft, Selbstbestimmung und Autonomie an eine Maschine abzugeben. Qualitative Methoden wie nicht-standardisierte, offene Interviews wurden eingesetzt, um die subjektiven Bedeutungsstrukturen und Relevanzsysteme der Teilnehmer zu erfassen (Kruse 2015). Im Gegensatz zu quantitativen Ansätzen wurde nicht mit vorab festgelegten Konzepten gearbeitet, sondern der Fokus lag auf der Offenlegung individueller Meinungen und Erfahrungen. Narrative Interviews boten den Probanden Raum zur freien Entfaltung, um Erfahrungen und Bedeutungsstrukturen aufzudecken (Przyborski 2014; Mayring 2016). Da ein rein narratives Interview die Forschungsfrage nach der Akzeptanzgrenze von KI im Alltag nicht ausreichend beantworten konnte, wurde eine Methodentriangulation aus fokussierten Interviews, „lauten Denken“ und der Szenariotechnik gewählt, um eine umfassendere Datenbasis zu schaffen.

2. Rekrutierung der Probanden und das Szenariodesign

Die Rekrutierung der Probanden erfolgte über verschiedene Methoden, darunter das Schneeballprinzip (Kruse 2015), Inserate in Online-Gruppen und Kaltakquise. Insgesamt wurden sechs Probanden interviewt, wobei ein breites Spektrum an Alter, Geschlecht, Bildungsstand und Arbeitsverhältnis abgebildet wurde. Das Ziel war es, Verzerrungen durch eine homogene Stichprobe zu minimieren, obwohl ein repräsentatives Sample nicht erforderlich war. Das zentrale Element der qualitativen Untersuchung war ein alltagsnahes Szenario, das in Form eines kurzen Hörspiels präsentiert wurde. Dieses Szenario simulierte eine Situation, in der Amazon Alexa eigenständig und unerwartet einen Befehl des Nutzers ablehnt. Die Auswahl des entscheidenden Satzes von Alexa war sorgfältig abgewogen, um die Grenze der Akzeptanz von autonom handelnden KI-Systemen zu erkunden. Die Szenarien wurden so entworfen, dass sie eine unbewusste kritische Reflexion bei den Probanden auslösen und die Akzeptanzgrenze offenlegen sollten, ohne die Antwort bereits vorzugeben. Als theoretische Grundlage diente die Kurzgeschichte „You’re entitled to what the data says you deserve“ von Rob Kitchin (Kitchin 2019), die den datengetriebenen Entscheidungsfindungsprozess von KI-Systemen veranschaulicht.

3. Durchführung der Interviews Auswertung und Ergebnisse

Die Interviews wurden mit einem Leitfragen-Katalog durchgeführt, der den Interviewern Orientierung bot, aber flexible Abweichungen erlaubte (Bohnsack 2014). Der Einstieg erfolgte mit teilbiografisch-narrativen Fragen, um die Probanden an das Thema heranzuführen (Grimm; Müller 2016). Die Auswertung der Interviews erfolgte mittels qualitativer Inhaltsanalyse nach Mayring (Mayring 2015; 2016; 2017), einer Methode, die die Vorteile quantitativer und qualitativer Ansätze kombiniert. Es wurde eine Mischform aus inhaltlicher Strukturierung und induktiver Kategorienbildung angewandt, da der Forschungsgegenstand explorativ und stark vom Interviewverlauf abhängig war. Die Ergebnisse zeigten, dass eine Bevormundung durch eine „starke KI“ von den Probanden nicht akzeptiert wurde. Die Akzeptanzgrenze für komplexe KI-Anwendungen ist unscharf und kontextabhängig. Das Phänomen des „selbst initiierten Autonomieverlustes“ wurde identifiziert, das die Bereitschaft beschreibt, Autonomie und Daten abzugeben, wenn ein persönlicher Nutzen erwartet wird. Die Probanden akzeptieren KI als Hilfsmittel, das ihnen den Alltag erleichtert, lehnen aber eine vollständige autonome Entscheidungsgewalt der KI ab.

V.Zusammenfassende Ergebnisse und Schlussfolgerungen

Die Studie zeigt eine komplexe und ambivalente Akzeptanz von KI in der Bevölkerung. Die Akzeptanzgrenze ist unscharf und individuell unterschiedlich, abhängig vom konkreten Szenario und den damit verbundenen Datenschutz- und Autonomie-Aspekten. Sowohl quantitative als auch qualitative Ergebnisse unterstreichen die Notwendigkeit einer kritischen Auseinandersetzung mit den ethischen Implikationen der Künstlichen Intelligenz und der Bedeutung von Transparenz und Kontrolle im Umgang mit KI-basierten Anwendungen. Die Studie betont die Notwendigkeit weiterer Forschung, um ein umfassenderes Verständnis der KI-Akzeptanz zu entwickeln.

1. Zusammenfassung der Ergebnisse beider Untersuchungsmethoden

Die Studie kombiniert quantitative und qualitative Methoden, um die Akzeptanz von KI im Alltag zu untersuchen. Das zentrale Ergebnis ist die Komplexität, Subjektivität und Ambivalenz der Einstellungen gegenüber KI, die stark vom jeweiligen Kontext abhängen. Es lässt sich keine eindeutige Akzeptanzgrenze feststellen; diese ist unscharf und variiert individuell. Während KI in einigen Bereichen positiv bewertet wird, wird sie in anderen, vergleichbaren Kontexten negativ beurteilt. Die Perspektive, ob es sich um gesellschaftliche Auswirkungen oder individuelle Nutzung handelt, beeinflusst die Bewertung maßgeblich. Die quantitative Untersuchung zeigte, dass die Probanden zwar die Vorteile der Digitalisierung nutzen wollen, den technologischen Fortschritt aber auch als zwangsläufig ansehen. Die qualitative Untersuchung bestätigte den Nutzen von KI im Alltag, stellte aber gleichzeitig die Grenzen der Akzeptanz heraus. Das von der qualitativen Gruppe beschriebene Phänomen des „selbst initiierten Autonomieverlustes“ verdeutlicht die Bereitschaft, Autonomie und Daten abzugeben, wenn ein konkreter persönlicher Nutzen erwartet wird. Die quantitative Untersuchung zeigte widersprüchliche Ergebnisse: Belohnungen aufgrund von Daten werden begrüßt, Bestrafungen abgelehnt. Letztendlich entscheidet jeder Einzelne, welche Technologien er akzeptiert.

2. Kritische Reflexion der quantitativen Methode

Das Forschungsdesign der quantitativen Untersuchung mit aufeinander aufbauenden Ebenen funktionierte grundsätzlich gut, führte die Befragten von bekannten zu allgemeineren Themen. Allerdings gab es Einschränkungen aufgrund des knappen Zeitrahmens. Die exakte Operationalisierung im Vorfeld war erschwert, was die Validität der Messung beeinträchtigte. Nicht alle Hypothesen konnten abgefragt werden. Die Stichprobengröße erlaubte keine repräsentativen Schlüsse; die Stichprobe war unausgewogen (hauptsächlich jüngere, gebildete Personen aus dem Umfeld des Forschungsteams), was die Ergebnisse verzerrt. Es handelte sich um eine nicht kontrollierbare Erhebungssituation. Die in der wissenschaftlichen Literatur kontrovers diskutierten Hypothesen hätten differenzierter ausgestaltet werden müssen, was der Zeitdruck verhinderte. Die Ergebnisse zeigten zwar die Bereitschaft zur Nutzung der Vorteile der Digitalisierung, jedoch wurde der technologische Fortschritt als zwangsläufig betrachtet. Ein Zusammenhang zwischen Reflexionsgrad und Alter der Befragten wurde festgestellt.

3. Schlussfolgerungen und Ausblick

Zusammenfassend lässt sich sagen, dass die Einstellung der Befragten gegenüber KI komplex, subjektiv und ambivalent ist und stark vom jeweiligen Szenario abhängt. Die Akzeptanzgrenze ist unscharf und variiert individuell. Während KI in einigen Szenarien positiv bewertet wird, wird sie in anderen negativ bewertet, obwohl die zugrundeliegenden Auswirkungen und Implikationen für Individuen und Gesellschaft ähnlich sein könnten. Beide Untersuchungen zeigen, dass das Bewusstsein für die Probleme von KI vorhanden ist. Der Einsatz von KI wird als „jetzt noch gut“ empfunden, wobei die Bedingungen für diese Akzeptanz unterschiedlich sind. Die quantitative Gruppe zeigte die Bereitschaft, die Vorteile der Digitalisierung zu nutzen, während die qualitative Gruppe den „selbst initiierten Autonomieverlust“ herausstellte – die Bereitschaft zur Datenabgabe für einen erwarteten Nutzen. Die Studie betont die Notwendigkeit weiterer Forschung, um die KI-Akzeptanz umfassender zu verstehen und die ethischen Implikationen der KI-Technologie zu berücksichtigen. Die Entscheidung, welche Technologien im Alltag akzeptiert werden, bleibt letztlich jedem Einzelnen überlassen.

Dokumentreferenz