Künstliche Intelligenz und Algorithmen. Gesellschaftliche Risiken - Patrick Böyer

Patrick Böyer

Künstliche Intelligenz und Algorithmen. Gesellschaftliche Risiken

1. Auflage. Dateigröße in KByte: 689.
pdf eBook , 48 Seiten
ISBN 3346880826
EAN 9783346880826
Veröffentlicht Mai 2023
Verlag/Hersteller GRIN Verlag

Auch erhältlich als:

Taschenbuch
27,95
18,99 inkl. MwSt.
Sofort Lieferbar (Download)
Teilen
Beschreibung

Bachelorarbeit aus dem Jahr 2023 im Fachbereich Soziologie - Wissen und Information, Note: 1,3, Westfälische Wilhelms-Universität Münster (Institut für Soziologie), Sprache: Deutsch, Abstract: Diese Bachelorarbeit beschäftigt sich mit dem Einsatz von Algorithmen in Verbindung mit Künstlicher Intelligenz und untersucht die davon ausgehenden gesellschaftlichen Risiken im Zeitalter der Digitalisierung. Die gesellschaftlichen Risiken, wie sie in dieser Arbeit identifiziert werden, leiten sich durch die Analyse sozialer Probleme ab. Es werden technische Details zu Algorithmen und Künstlicher Intelligenz beschrieben und deren folgenreicher Einsatz. Die Wirkung von Algorithmen wird zusätzlich durch die weitestgehend philosophischen Konzepte der Rekursivität und Kontingenz verdeutlicht.
Als Ergebnis werden in dieser Arbeit das Vertrauensproblem, Verantwortungsproblem, Fairnessproblem, Bias-Problem, Blackbox-Problem und Kommunikationsproblem identifiziert. Aus dem Blackbox- und Kommunikationsproblem ergeben sich Verluste von Freiheiten und Kontrollmöglichkeiten für Menschen. Die Bias-, Verantwortungs-, Fairness- und Vertrauensprobleme erzeugen Unrechtmäßigkeiten und stören das Gerechtigkeitsempfinden von Menschen. Ein weiterer Aspekt ist das Nichtwissen, welches in vielen dieser Problemfelder hineinwirkt, diese verstärkt, bedingt oder auslöst und im Allgemeinen einen sicheren Umgang beeinträchtigt.
Das Ergebnis bedeutet, dass erzeugte gesellschaftliche Risiken durch den Einsatz von KI und Algorithmen nicht ausreichend beobachtet und kontrolliert werden. Auch sind keine übergeordneten Instanzen oder Ordnungsprinzipien erkennbar und Menschen kennen die Risikoquelle nur bedingt. Des Weiteren ist ersichtlich, dass es einer ausgewogenen, transnationalen, offenen Debatte bedarf und sich die KI-Sicherheitsforschung weiter etablieren muss. Aufklärungsvorhaben, transparente Forschung und eine offene Diskussionskultur sind passende Elemente.
Ein weiteres Element ergibt sich durch die Möglichkeit zur Erarbeitung von Lösungswegen für die identifizierten technischen Probleme bzw. Phänomene. Diese können entkräftet, kontrolliert oder sogar eliminiert werden. Generell gilt es die Sichtweise zu stärken, dass KI und Algorithmen lediglich Instrumente sind und Menschen diese auch nur als solche begreifen sollten. Das bedeutet auch, dass Menschen sich der Chancen und Risiken bewusst sein sollten, die mit der Nutzung eines solchen Instrumentes einhergehen.

Technik
Sie können dieses eBook zum Beispiel mit den folgenden Geräten lesen:
• tolino Reader 
Laden Sie das eBook direkt über den Reader-Shop auf dem tolino herunter oder übertragen Sie das eBook auf Ihren tolino mit einer kostenlosen Software wie beispielsweise Adobe Digital Editions. 
• Sony Reader & andere eBook Reader 
Laden Sie das eBook direkt über den Reader-Shop herunter oder übertragen Sie das eBook mit der kostenlosen Software Sony READER FOR PC/Mac oder Adobe Digital Editions auf ein Standard-Lesegeräte. 
• Tablets & Smartphones 
Möchten Sie dieses eBook auf Ihrem Smartphone oder Tablet lesen, finden Sie hier unsere kostenlose Lese-App für iPhone/iPad und Android Smartphone/Tablets. 
• PC & Mac 
Lesen Sie das eBook direkt nach dem Herunterladen mit einer kostenlosen Lesesoftware, beispielsweise Adobe Digital Editions, Sony READER FOR PC/Mac oder direkt über Ihre eBook-Bibliothek in Ihrem Konto unter „Meine eBooks“ -  „online lesen“.
 
Bitte beachten Sie, dass die Kindle-Geräte das Format nicht unterstützen und dieses eBook somit nicht auf Kindle-Geräten lesbar ist.
Hersteller
GRIN Verlag
Nymphenburger Straße 86

DE - 80636 München
Tel.: 089 55055917
E-Mail: ab@grin.com
Website:

Das könnte Sie auch interessieren