Lade Inhalt...

Entwicklung von KI-Algorythmik und ihre Auswirkung auf Mensch und Gesellschaft

©2019 Facharbeit (Schule) 49 Seiten

Zusammenfassung

Seit Anbeginn der höheren Menschheitsgeschichte mit dem Aufrichten des Torsos haben sich die Parameter, welche über Leben oder Sterben bestimmen, stark verändert. Wo zu Beginn reine Stärke und pure Gewalt zu tragen kamen, ersetzen heute motorische Fähigkeiten, Kombinatorik und Auffassungsgabe die ursprünglichen Überlebenstriebe. Rechenkapazität und innovative Verarbeitungsmöglichkeiten haben sich als Indikator für Reichtum und Fortschritt herausgestellt. Diesen Umstand macht sich die KI-Algorythmik zunutze - sie verbessert und beschleunigt, sie passt an und individualisiert. Das macht sie zu einem der fortschrittlichsten Forschungsgebiete der heutigen Zeit. Diese Arbeit soll einem Thema, dem aus Gründen der Komplexität und der schwierigen Anwendbarkeit zu wenig Aufmerksamkeit zukommt, einen Auftritt und eine Möglichkeit der Entmystifizierung geben.

Die Arbeit soll unter anderem beantworten, wie sich die Suche nach Künstlicher Intelligenz entwickelt hat und welche Meilensteine dabei erreicht wurden, welche Benchmarks im Wettlauf um die Erstellung neuronaler Netzwerke gesetzt werden und welche Gefahren, Chancen und Potenziale durch die Forschung und Entwicklung an einem solchen Thema entstehen.

Leseprobe

Inhalt

Danksagung

Abstract

1. Einleitung
1.1.Political-Correctness und Gender

2. Erste Gedanken – Intelligenz
2.1. Der g-Faktor nach Charles Spearman
2.2. Lösungsfindungskompetenz als Parameter für Intelligenz
2.3. Intelligenz als linguistisches Problem

3. Arten der Umsetzung vom Biologischen in das Analog-technische und das Digitale
3.1 Gliederung der Herangehensweisen an Künstliche Intelligenz
3.2 Machine Learning
3.3 Neurale Netze – Neural Networking
3.4 Die Sigmoidfunktion

4. Anwendungsbeispiele in verschiedenen Marktspalten
4.1 Wirtschaftliches Interesse und Wettbewerbsdissonanzen
4.2 Das Mooresche Gesetz
4.3 Künstliche Intelligenz in der Medizin
4.4 Künstliche Intelligenz am Finanzmarkt
4.5 Künstliche Intelligenz in militärischer Verwendung

5. Bedenken und Gefahren in Verbindung mit Künstlicher Intelligenz
5.1 Finanzielle Verteilung und Veränderung von Finanzströmen
5.2 Verteilung meinungsbildender Instanzen
5.3 Im Gespräch

6. Einfache Versuche mit KI am Beispiel von ARS©
6.1 Bauplan und Funktionsweise

7. Fazit
7.1 Deformation des Arbeitsmarktes
7.2 Moravec's Paradoxon
7.3 Zukunft als Chance

8. Abbildungsverzeichnis und Quellennachweis

9. Anhang
9.1 Umsatzmodell der Intelligenz
9.2 Das Programm des ARS©-Projekts
9.3 Weitere Dokumentationen aus dem ARS©-Projekt

Danksagung

Ich möchte mich an dieser Stelle bei folgenden Personen und Institutionen, welche zum Gelingen dieser Arbeit beigetragen haben, bedanken.

Vielen Dank an die Technische Universität Wien für die bereitgestellten Arbeiten und Forschungsergebnisse aus dem kognitiv-vergleichenden Bereich.

Ein ebenso großes Dankeschön gilt Stefan Stücklschweiger, der mit der Bereitstellung von Karten zu den letzten Fifteen Seconds- Events viele interessante Gespräche und unter anderem großartige Interviews möglich gemacht hat.

Besonders möchte ich mich bei Jeremy Abbett bedanken, welcher mit seiner Bereitschaft, ein Interview mit mir zu führen, meine Arbeit enorm aufgewertet hat. Seine Sichtweise auf die Zukunft im Bereich der KI hat mich in wesentlichen Punkten beeinflusst und auch persönlich fasziniert.

Abschließend möchte ich mich bei meiner Betreuerin, Mag.a Nora Andracher bedanken. Sie hat mir mit ihrer offenen Einstellung und Flexibilität ermöglicht, eine Arbeit nach meinen Vorstellungen zu schreiben. Dieser ungezwungene Umgang hat das Schreiben meiner VWA für mich zu einem Erlebnis gemacht, welches mir als positiver Eindruck, in Bezug auf das Schreiben an sich, in Erinnerung bleibt.

Abstract

Diese Arbeit bietet die Grundlage und das Basiswissen zum Thema Künstliche Intelligenz und kommt mit diesen Erkenntnissen zur Beantwortung fälliger Fragen.

Das Thema der Künstlichen Intelligenz wirft jedoch neben zahlreichen technischen Fragen und komplexen Zusammenhängen auch bedeutende ethische und moralische Fragen auf. Zu jenen soll diese VwA verschiedene Blickwinkel anbieten und gleichzeitig klar auf die Situationen verweisen, aus denen heraus Meinungen und Kommentare entstanden sind. Eine Besonderheit dieser Arbeit ist das Gespräch zwischen mir und dem ehemaligen Creative Director von Google, Jeremy Abbett.

Das daraus entstandene Interview bietet interessante Einblicke in die Welt einer Wirtschaftsgröße wie Google und gibt einen positiven Ausblick auf die digitale und analoge Zukunft.

1. Einleitung

Seit Anbeginn der höheren Menschheitsgeschichte mit dem Aufrichten des Torsos haben sich die Parameter, welche über Leben oder Sterben bestimmen, stark verändert. Wo zu Beginn reine Stärke und pure Gewalt zu tragen kamen, ersetzen heute motorische Fähigkeiten, Kombinatorik und Auffassungsgabe die ursprünglichen Überlebenstriebe. Rechenkapazität und innovative Verarbeitungsmöglichkeiten haben sich als Indikator für Reichtum und Fortschritt herausgestellt. Diesen Umstand macht sich die KI-Algorythmik zunutze - sie verbessert und beschleunigt, sie passt an und individualisiert. Das macht sie zu einem der fortschrittlichsten Forschungsgebiete der heutigen Zeit. Diese Arbeit soll einem Thema, dem aus Gründen der Komplexität und der schwierigen Anwendbarkeit zu wenig Aufmerksamkeit zukommt, einen Auftritt und eine Möglichkeit der Entmystifizierung geben.

Die Arbeit soll unter anderem beantworten, wie sich die Suche nach Künstlicher Intelligenz entwickelt hat und welche Meilensteine dabei erreicht wurden, welche Benchmarks im Wettlauf um die Erstellung neuronaler Netzwerke gesetzt werden und welche Gefahren, Chancen und Potenziale durch die Forschung und Entwicklung an einem solchen Thema entstehen.

Als Quellen werden Fachliteratur, Fachbereichsarbeiten, Projektberichte, Gespräche mit Menschen, die sich mit dem Thema auseinandersetzten oder es zu ihrem Beruf gemacht haben, und allgemeine Onlinerecherche verwendet.

1.1.Political-Correctness und Gender

Die in dieser Arbeit verwendeten, nicht direkt personenbezogenen Ausdrücke, im Speziellen Berufsbezeichnungen, sind als absolut geschlechtsneutral zu betrachten und sprechen immer sowohl Frauen als auch Männer an. Aus Gründen der Einfachheit und Lesbarkeit wird jedoch auf die gesonderte Aufzählung verzichtet.

2. Erste Gedanken – Intelligenz

Das Wort Intelligenz wird aus dem lateinischen Begriff intelegere (wörtlich: verstehen, wählen zwischen) hergeleitet, der wiederum ein Kompositum aus den Einheiten inter (zwischen) und legere (lesen, wählen) ist.1 Diese Herleitung verleiht einem jedoch bedenklich wenig Auskunft über die Definition und die Abgrenzungen dieses Begriffes. Aus diesem Grund wird die Findung einer möglichst akkuraten Definition zu den Themen des Kapitels Erste Gedanken - Intelligenz gehören.

2.1. Der g-Faktor nach Charles Spearman

Charles Spearman studierte 1897 bei Wilhelm Wundt Psychologie und beendete sein Studium nach Einberufung in den Burenkrieg. Dennoch promovierte er 1904 bei Wundt und erweiterte seine Studienlaufbahn um einige Studiengänge wie Physiologie und Philosophie.

Spearman stellte in einer Untersuchung verschiedener Intelligenztests an einer Gruppe von Probanden und deren Auswertungen fest, dass sich verschiedene Sparten der Intelligenzmessung korrelativ verhalten. Spearman kam so zu dem Schluss, dass es einen umfassenden Parameter für die Intelligenz geben müsse, den er General Factor of Intelligence nennt. Dieses Ergebnis fasste der Psychologe 1904 in seiner Faktortheorie der Intelligenz zusammen.

In einer weiteren Theorie von Spearman, seiner Zwei Faktoren Theorie, teilt er jedem Messwert, der sich aus der Auswertung spezifischer Intelligenztests, die jedoch immer auf eine bestimmte Art beziehungsweise Ausprägung der Intelligenz abzielen, ergibt, zwei erzeugende Faktoren zu. Dadurch kommt die Vernetztheit der Umstände, die zu intelligentem Verhalten oder allgemeiner Intelligenz führen, gut zum Ausdruck.

Zu bemerken ist jedoch, dass schon damals die Bemessung der kognitiven Leistungsfähigkeit und der Intelligenz als isolierter Faktor stark umstritten war.2 (Das war unter anderem der Fall, weil sich Testungen meist nicht auf Größen wie schlussfolgerndes Denken oder Kombinatorik konzentrierten.)

Ein Beispiel für einen Test, der zur Berechnung des g-Faktors herangezogen wird, ist Ravens Matrizentest (auch bekannt als Ravens Progressive Matrizen). Diese Intelligenztestung verzichtet durch Multiple-Choice Prüfungsverfahren völlig auf eloquentes Verhalten als Bewertungsgrundlage. Er spezialisiert sich auf das Erkennen von Mustern und die Feststellung von Fehlern in diesen, beziehungsweise das Weiterführen der Muster.3

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1 Testausschnitt Mustererkennung4

Das in Abbildung 1 erkennbare Aufgabenmuster ist einseitig auf die Erkennung eines Musters ausgelegt, vernachlässigt jedoch alle anderen Bereiche des kognitiven Leistungsspektrums.

2.2. Lösungsfindungskompetenz als Parameter für Intelligenz

Ein anderer Ansatz Intelligenz zu messen ist es, den Begriff selbst als Eigenschaft zu sehen, die in verschiedenen Ausprägungen vorkommt. So wird Intelligenz in diesem Modell als Fähigkeit, Probleme zu lösen und Ziele zu erreichen, definiert. Das Maß der Intelligenz hängt dann im Wesentlichen davon ab, wie komplex die erreichten Ziele sind. Menschen beispielsweise sind mit ihrer neuronalen Konstellation in der Lage, relativ komplexe Aufgaben, wie zum Beispiel das Wiedererkennen von Gesichtern, zu meistern. Um die interspezifische Kommensurabilität zu bewahren, muss man der Bemessung von Komplexität einen Rahmen bieten. So ist das Leben unter Extrembedingungen wie Hitze, Kälte, Druckextremen oder Aussetzung von Strahlung für Menschen ohne Schutzausrüstung unmöglich, während sich bestimmte Bakterien genau unter solchen Bedingungen wohlfühlen und das ohne intelligenter zu sein. (beziehungsweise intelligenteres Verhalten an den Tag zu legen) Hierbei ist die Komplexität des Ziels als sehr nieder einzustufen, da kein Aufwand der Spezies vonnöten ist, um die, für andere unerreichbare Herausforderung, zu meistern. Die Formulierung der Ziele ist somit wichtig. Dabei ist es von Bedeutung, evolutionäre Einschränkungen gegebenenfalls außer Acht zu lassen. Im Weiteren ist es notwendig, die Anspruchsbereiche breitgefächert aufzustellen, um eine sinnvolle Einschätzung der Intelligenz eines Individuums zu erreichen.

Schlussendlich liefert diese Betrachtungsweise eine gute Vergleichbarkeit zwischen verschiedenen Individuen. Ein absolutes Maß für Intelligenz ist jedoch auch das nicht. Ein unbestrittener, numerischer Wert ist nach heutigem Stand nicht zu erreichen, was im Wesentlichen an der Schwierigkeit liegt, der Komplexität einer Aufgabe einen numerischen Wert zuzuweisen.

Ein Weg dieses Problem zu beheben ist, als Wert für die Intelligenz den Kehrwert des für eine Aufgabe benötigten Energieaufwandes zu verwenden Ahg.. Dieser Verbrauch lässt sich an der Präsenz von Glukosemolekülen festmachen. Die Werte dafür liefert ein Positronen- Emissions-Tomograph. Er misst die von Natrium-22-Isotopen emittierten Positronen. Das Natrium-22 wird zuvor in die, dem Patienten verabreichte Glukose integriert.5 Diese Werte könnten einen intraspezifischen Vergleich und einen numerischen Wert bieten. Doch auch diese Methodik würde markante Schwachstellen aufweisen. Sie misst zwar den objektiven Denkaufwand, jedoch gibt es immer mehrere Möglichkeiten, ein vorformuliertes Ziel zu erreichen. Dabei sind vor allem die Ergebnisse, welche das Gehirn des Probanden liefert und nicht unbedingt gefragt sind, ein ausschlaggebender Faktor. Sie stellen somit einen, für die Aufgabe unnützen Aufwand dar, und verfälschen das Ergebnis.

Der Energieaufwand steht allerdings gemeinsam mit der benötigten Zeit als Kontrafaktor der Effizienz gegenüber.

Dabei ergibt sich bei einer grafischen Veranschaulichung, bei der die Monotonie der Zeitkurve in ihrer Steigung an die der Glukose-Aufwandskurve angenähert ist, folgende Grafik. In dieser Darstellung wird die Effizienz unter der Annahme von gleicher Beeinflussung des Endwerts durch Zeitaufwand und Glukoseverbrauch mit dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2 Grafik zur Effizienzberechnung6

2.3. Intelligenz als linguistisches Problem

Das Ergebnis der beiden vorangegangenen Kapitel ist, dass Intelligenz ein Begriff ist, der in unserem Sprachgebrauch eher trivial, wissenschaftlich jedoch hochkomplex ist. Zu bedenken ist, dass der tägliche Gebrauch an unsere Sprache nicht den Anspruch von Präzision und Unwiderlegbarkeit stellt.

Bei Verwendung ist beiden Seiten klar was gemeint ist. Bei genauerer Betrachtung ist es das jedoch nicht. Dieser Umstand bietet bestimmt einige Schwierigkeiten, er soll jedoch kein Hindernis für diese Arbeit sein. Eine Ausweitung erfährt der Begriff, wenn man ihn von Lebewesen auf rechenfähige Systeme ausweitet.

3. Arten der Umsetzung vom Biologischen in das Analog-technische und das Digitale

Die Herausforderung beim Versuch Maschinen beziehungsweise Algorithmen durch das Lösen von Aufgaben zu verbessern, ist es, den Unterschied zwischen der Handlungsweise eines Menschen und der eines Computers zu überbrücken. Ob dieses Ziel erreicht werden kann ist bis heute nicht gänzlich klar. Belegt sind derzeit allerdings bereits Erfolge der Branche. So hat zum Beispiel der Algorithmus des Supercomputers Deep Blue von International Business Computers 1997 gegen den damaligen Weltmeister Garry Kasparov im Schach gewonnen.7

3.1 Gliederung der Herangehensweisen an Künstliche Intelligenz

Künstliche Intelligenz beschreibt an sich die Problemlösung durch digitale Rechenleistung auf einem humanoiden Basismodell. Bei jeder Herangehensweise ist das Hauptziel ein ähnliches. Nämlich den Algorithmus und somit die Maschine lernen zu lassen. Algorithmen, die sich selbst verbessern und aus Fehlern lernen, sind deshalb so nützlich und begehrt, weil sie die menschliche Eigenschaft zu lernen, mit der technischen Eigenschaft, Tag und Nacht zu arbeiten und allgemein in der Einsetzung und Handhabung besonders billig und unkompliziert dem Menschen gegenüber, vereint. Diese Tatsache macht Künstliche Intelligenzen zu einer so wirtschaftlichen Alternative. Im Weiteren bringt die KI noch den enormen Vorteil der Geschwindigkeit mit sich. Computer können Rechenaufgaben in Bruchteilen von Sekunden lösen. Die Herausforderung beim Entwickeln Künstlicher Intelligenzen ist es, die Ergebnisse solcher Rechenschritte zu einem sinnvollen Netz an Informationsabgleichen und Handlungsabläufen zu gestalten.

Diese Herausforderung erfreut sich mehrerer Lösungszugänge. Jeder davon weist eigene Fortschritte und Spezialgebiete auf. Die Hauptbereiche, in welche man all diese Handlungsweisen beziehungsweise Techniken gliedern kann, sind Deep Learning, Machine Learning und Neural Networking. All diese Möglichkeiten, Algorithmen lernen zu lassen, fasst man unter dem Begriff Künstliche Intelligenz zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3 Unterteilung der KI

3.2 Machine Learning

Machine Learning ist der Grundstock der Künstlichen Intelligenz. Der Grundgedanke ist analog zum menschlichen Klassifikationsprozess und der Wahrnehmungsverarbeitung. Sobald ein Mensch oder auch Tier, welches einer höheren Intelligenzstufe zuzuordnen ist, ein Objekt, eine Situation, eine Bewegung oder eine Emotion eines Artgenossen wahrnimmt, tut er dies über seine Sinneskanäle. Die Wahrnehmung des Menschen setzt sich dabei beispielsweise beim Erkennen eines fahrenden Autos aus optischen Reizen, akustischen Wahrnehmungen und eventuell einer olfaktorischen Komponente zusammen.8 Unter der Annahme, das Gehirn sei in seiner Arbeitsweise einem Algorithmus gleich, kann man den Ablauf der Klassifikation wie folgt darstellen:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4 Ablauf einer Klassifikation

Der Prozess des maschinellen Lernens funktioniert analog dazu. Der Entwickler des Algorithmus setzt für diesen eine Abfolge von Schritten fest. Durch Befolgen und Abarbeiten dieser Schritte sortiert das Programm bei der Fotoerkennung zum Beispiel zuerst die gemessenen Daten. Dabei entstehen reine Zahlenwerte wie Wellenlängen, Anzahl der Pixel oder Spektren. Im Fall eines rein digitalen Bilderkennungssystems verwertet der Algorithmus die Informationen aus dem Bildfile. In diesem sind genaue Angaben über Helligkeit und Farbstufen. Diese werden im Ausgabeprozess benötigt, um eine Abbildung am Bildschirm entstehen zu lassen. Anfangs muss der Entwickler sich für Parameter entscheiden, die zur Einstufung herangezogen werden sollen. Dann beginnt die Trainingsphase. In dieser werden, im Falle der Bilderkennung, dem Programm Bilder eingespeist, die es erkennen muss.

Anfangs ähnelt ein solcher Prozess reinem Raten, weil der Algorithmus zwar die Parameter kennt, jedoch keine Referenzwerte hat. Nach einem Erkennungsversuch wird das Ergebnis des Rechenvorgangs mit dem tatsächlichen verglichen. An dieser Stelle gleicht der Algorithmus seine Grenzwerte, von welchen die Klassifikation abhängt, an das Ergebnis an. Diese, mit Fachbegriff als rekursive Verbesserung oder Backward Propagation bezeichnete Strategie ist das, was das System eigentlich intelligent macht. Die Eigenschaft der Selbstverbesserung ist das, was einen Algorithmus selbstlernend macht.9

Um einen Algorithmus in seiner Zuverlässigkeit zu verbessern, unterzieht man diesen einem Training, welches aus dem Klassifizieren von Beispielbildern besteht. Der Trainingserfolg hängt dabei im Wesentlichen von der Auswahl der Daten, welche man für die Testläufe einsetzt, ab. So besteht die Möglichkeit, dass durch schlecht gemischte Bilddateien falsche Annahmen über die Klassifikationsparameter entstehen. So könnte zum Beispiel der real eingesetzte Algorithmus einen Hund als Katze einstufen, weil der Hund die gleiche Fellfarbe hat wie die Katze, welche im Training als Bildmaterial verwendet wurde. Derartige Fehler sind allerdings durch eine große Anzahl von Daten im Testlauf, eine bewusste Streuung der angegebenen Parameter und eine gezielte, manuelle Fehlersuche auszumerzen.

3.3 Neurale Netze – Neural Networking

Bei der Technik des Neural Networkings, welche auch zum Überbegriff der Künstlichen Intelligenz gezählt wird, wird versucht, den Erarbeitungsprozess einer Entscheidung im digitalen Bereich so nahe wie möglich an den im menschlichen Gehirn anzulehnen. Grob gesprochen wird im menschlichen Gehirn zur Speicherung von Information ein strukturell fluides Netz erstellt, welches einer Verschaltung verschiedener Gatter ähnelt.10

Um zu verstehen wie man Entscheidungsfindung, Kategorisierung und Klassifikation mit neuralen Netzen im digitalen Bereich realisiert, ist es von unumgänglicher Bedeutung, die Abläufe im menschlichen Gehirn zu verstehen. Zur Veranschaulichung ist das Konzept des Logikgatters geeignet. Bei einem solchen handelt es sich um einen mechanischen, elektrischen oder digitalen Agenten, welcher zur Ausführung eines bestimmten Ablaufes eine Kombination verschiedener Umstände verlangt. So kann ein Gatter, welches zwei Eingänge und einen Ausgang hat zum Beispiel nur dann ein Signal an seinem Ausgang abgeben, wenn einer oder keiner der Eingänge ein Signal erkennt.

Unser Gehirn besteht vereinfacht betrachtet aus Neuronen und Versorgungsstrukturen. Um einen Reiz, der im Vergleich mit dem digitalen System als binärer Eingang zu verstehen ist, zu verarbeiten und zu einem Ausgang zu gelangen, werden die Neuronen unseres Telencephalon angeregt.11 Wird ein Neuron über mehrere Eingänge angeregt, die einer zuvor erlernten Information entsprechen, gibt das Neuron ein Signal an eine bestimmte Synapse ab. Dem Umstand, dass diese Abläufe nicht willkürlich geschehen, haben wir zu verdanken, dass wir lernen, verstehen, kommunizieren und Gelerntes reproduzieren können. Denn Neuronen und Synapsen sind eine physische Form des Speichers und können neu geschaffen als auch verändert werden. Ihre Funktion ist mit der eines Gatters, also einem Teil eines Schaltkreises, zu vergleichen. Diese Vergleichbarkeit bietet nicht nur die Möglichkeit einzelne Vorgänge nachzubauen oder durch Modelle zu veranschaulichen, sie bietet auch eine Analogie zur bekannten ,,If“-Funktion, welche das Erscheinungsbild der meisten Programmierumgebungen und Sprachen wesentlich prägt. Die If-Funktion weist, kongruent zum Neuron, einer Voraussetzung eine Konsequenz zu. Dies lässt sich an einem einfachen Beispiel in der C++ nahen IDE (Integrated Development Environment) von Arduino erklären:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5 Neuron Stimulus12

Wie in Abbildung 4 verdeutlicht wird, kann ein Programm, welches von Menschen gespeist wird, eine Zuweisung von Information vornehmen und bildet somit eine Entität in der Berechnung beziehungsweise der systematischen Zuordnung zur Findung von Entscheidungen, was wiederum die Basis des menschlichen Bewusstseins bildet.

Diese Erkenntnis bildet den Grundstock, auf dem der gesamte Erfolg der neuralen Netzwerke ruht. Die Überzeugung, eine Kleinsteinheit unseres Gehirns funktionell nachgebaut zu haben und diese mit der besonderen Eigenschaft, auf digitale Rechenleistung als Basis zurückzugreifen, ausgestattet zu haben, hat das Bild von unserem Bewusstsein und sowohl die Einzigartigkeit als auch die Endgültigkeit dessen in Frage gestellt, was bis heute als selbstverständlich galt- die evolutionäre Vormacht des Menschen.13

Die Komplexität der, mit verschiedenen Gattertypen erzeugbaren Rechenoptionen, wird in den folgenden Abbildungen verdeutlicht. In der Abbildung wird die schrittweise Addition einer mehrstelligen Zahl mittels mehrerer NAND-Gatter gezeigt. Die Funktionsweise eines neuronalen Netzes ist durch verschiedene Schichten, welche jeweils aus parallel agierenden Neuronen bestehen, zu beschreiben. Diese, grundsätzlich in ihrer Anzahl nicht beschränkten Schichten, werden im Fachvokabular auch als Layer bezeichnet. Besagte Schichten lassen sich in ihren Interaktionstypen in drei Arten gliedern. Der erstgereihte Layer wird als Input-Layer bezeichnet und bringt die zu klassifizierende Information in das Format, welches das jeweilige System verlangt. Als Überbegriff für die, bis ausschließlich dem letzten Layer folgenden Anordnungen wird die Terminologie Hidden-Layer oder Working Part verwendet. In diesem Teil werden die Informationen gefiltert, sortiert und durch verschiedene Gewichtungen kategorisiert. Im letzten Abschnitt, dem Output-Layer liegt die Klassifizierung, also das Ergebnis und Ziel des Netzes vor. Dieses ist meistens noch encodiert und muss mittels eines weiteren Schrittes zu einem lesbaren Ergebnis überführt werden. 14

[...]


1 Vgl: https://www.duden.de/rechtschreibung/Intelligenz (Zugriff am 02.06.2018)

2 Vgl: http://lexikon.stangl.eu/3041/g-faktor-generalfaktor (Zugriff am 02.06.2018)

3 Vgl: https://www.testzentrale.de/shop/advanced-progressive-matrices.html (Zugriff am 02.06.2018)

4 Vgl: https://www.spektrum.de/lexika/showpopup.php?lexikon_id=4&art_id=14686&nummer=304 (Zugriff 27.10.2018)

5 Vgl: Kaku, Michio: Die Physik des Bewusstseins: Über die Zukunft des Geistes. Auflage 2. Rowohlt Taschenbuch Verlag Reinbeck bei Hamburg 2015. (Seite 44)

6 Erstellt mit Texas instruments™

7 Vgl: https://de.chessbase.com/post/20-jahre-kasparov-gegen-deep-blue (Zugriff 30.01.2019)

8 Vgl: Lenzen, Manuela: Künstliche Intelligenz. C.H.Beck OHG, München 2018. (S.50 f.)

9 Vgl: Lenzen, Manuela: Künstliche Intelligenz. C.H.Beck OHG, München 2018. (S.67 f.)

10 Vgl: Lenzen, Manuela: Künstliche Intelligenz. C.H.Beck OHG, München 2018. (S.52 f.)

11 Vgl: https://de.wikipedia.org/wiki/Gehirn ( Zugriff 22.01.2019)

12 Erstellt mit Arduino™

13 Vgl: Tegmark, Max: Leben 3.0: Mensch sein im Zeitalter der Künstlichen Intelligenz. Auflage 2. Ullstein Buchverlag Berlin 2017. (S. 109 f.)

14 Vgl: Tegmark, Max: Leben 3.0: Mensch sein im Zeitalter der Künstlichen Intelligenz. Auflage 2. Ullstein Buchverlag Berlin 2017. (S. 109 f.)

Details

Seiten
49
Jahr
2019
ISBN (eBook)
9783668981515
ISBN (Paperback)
9783668981522
Sprache
Deutsch
Erscheinungsdatum
2019 (Juli)
Note
1
Schlagworte
KI AI Artificial Intellligence künstliche Intelligenz Netzwerke neurale Netze Bitcoin Blockchain Deep learning machine Learning learning Robotik financial programming crypto currency Go open AI
Zurück

Titel: Entwicklung von KI-Algorythmik und ihre Auswirkung auf Mensch und Gesellschaft