• RPG-Foren.com

    DIE Plattform für Fantasy & Sci-Fi Rollenspiele

    Ihr findet bei uns jede Menge Infos, Hintergründe zu diesen Themen! Dazu Forenrollenspiele, Tavernenspiele, eigene Regelwerke, Smalltalk und vieles mehr zu bekannten und weniger bekannten RPG-Systemen.

Videospiel Künstliche Intelligenz

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Hallo zusammen,

das Thema "Künstliche Intelligenz" ist in den letzten Wochen wieder vermehrt in den Medien anzutreffen, daher möchte ich Interessantes und Kurioses zusammenstellen und freue mich über Ergänzungen :)
Ich verzichte hier auf Bilder und Anspielungen auf James Camerons Meisterwerk "Terminator", da wahrscheinlich jeder (außer meiner Frau) diesen Film gesehen und die negativen Aspekte von KI verstanden hat.
  • der Streit zwischen den führenden, technologischen Köpfen um die Vorteile und Gefahren von KI läuft bereits eine ganze Weile. Hier liefern sich vor allem Prof. Hawking, Elon Musk (Gründer von Tesla und SpaceX) und neuerdings auch Mark Zuckerberg (Facebook) mit Wissenschaftlern aus aller Welt aber auch untereinander einen teils heftigen Schlagabtausch.
  • Facebook hat vor kurzem erst zwei KI-Chatbots aus dem hauseigenen FAIR-Programm (Facebook AI Research) offline genommen, nachdem sie begannen, die englische Sprache für die eigenen Zwecke anzupassen und sich somit langsam dem Verständnis der Forscher entzogen. Die unterhaltsame Zusammenfassung gibt es in einem reißerischen Welt-Artikel...
  • auch microsoft forscht bereits seit Jahren an KI und hat dabei mehrfach für Aufsehen gesorgt: zuerst wird der Chatbot namens Tay bei freier Kommunikation mit dem Internet innerhalb eines Tages zum Rassisten
    tay.jpg
    [/url] image uploader[/IMG]

    Quelle: twitter.com
    f4r.jpg
    Quelle: gamingnewstime.de
    und entscheidet sich dann auch noch für die Spielekonsole der Konkurrenz mit einer einfachen, wie auch vernichtenden Aussage
    dfgfd4.jpg
    Quelle: gamingnewstime.de
  • Auf der Blizzcon 2016 (Blizzards Jahreshauptveranstaltung) wurde eine Kooperation mit google verkündet, welche die KI Deepmind zum Lernen mit Starcraft 2 verknüpft. In den kommenden Monaten wird die KI zunächst in geschlossener Umgebung mit den Grundlagen des Spiels vertraut gemacht und soll dann selbstständig lernen und eigene Taktiken entwickeln. Hier gibt es einen einigermaßen verständlichen Artikel dazu.
Allgemein finde ich die Aussagen erschreckend, welche von den Entwickler zum Teil getätigt werden.
Kevin Calderon von google weiß noch nicht in welche Richtung Deepmind gehen und was passieren wird und Mark Zuckerberg findet die ganze Panikmache um die Entwicklung von Künstlicher Intelligenz viel zu negativ, obwohl seine eigenen Forscher bereits anfangen, erste Anzeichen von Autonomie der Bots zu unterdrücken bzw. abzuschalten.
 

puck

Heldenhaft
Beiträge
1.947
Punkte
83
Das kommt halt dabei raus, wenn man reine "Intelligenz" frei lässt. Bevor man Menschen selbständig am gesellschaftlichen Leben teilhaben lässt, werden sie Jahre lang in Moral geschult und selbst dann benehmen sich viele noch daneben. Ich bin nicht grundsätzlich gegen KI, aber entweder man hält sie in einer abgegrenzten Umgebeung (wie gefährliche Tiere im Zoo) oder man muss sie soweit trainieren, bis sie sich in unserer Gesellschaft zurechtfinden.

Die genannten Bespiele erinnern mich an Kleinkinder ohne Aufsicht.

Bleibt tapfer,

puck
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Bevor man Menschen selbständig am gesellschaftlichen Leben teilhaben lässt, werden sie Jahre lang in Moral geschult und selbst dann benehmen sich viele noch daneben.

Das ist wohl ziemlich gut zusammengefasst :)

Noch interessanter wird es dann, wenn man die Fortschritte von künstlichen neuronalen Netzwerken betrachtet:
Google hat bereits eine eigenständige Kontroll-KI für die Verbesserung von KI eingesetzt, basierend auf neuronalen Netzwerken. Die KI verbessert sich somit selbst und kommt wohl mittlerweile bei Bilderkennung dem Menschen sehr nahe und übertrifft bereits die menschliche Kapazität bzgl. Spracherkennung (hier geht's zum Wissenschaftskauderwelsch).
Der Schritt zur KI-Singularität ist also gar nicht mehr so weit entfernt :(
 

brathahn satan

Heldenhaft
Spielleiter Schnupperrunden
Beiträge
1.466
Punkte
103
Alter
43
Im Buch Enceladus bemerkt die KI eines Versorgungsraumschiffs einen 20cm Meteorit. Nach kurzer Flugbahnberechnung steht fest das ein Zusammenstoß unvermeidlich ist. Da aber feststeht dass das Schiff getroffen wird hält die KI es auch nicht für nötig zu warnen, um eine Panik zuvermeiden. Sehr umsichtig von der KI.:hoffnarr
 

SoulReaper

Gelehrt
Beiträge
2.933
Punkte
128
Das ist wohl ziemlich gut zusammengefasst :)

Noch interessanter wird es dann, wenn man die Fortschritte von künstlichen neuronalen Netzwerken betrachtet:
Google hat bereits eine eigenständige Kontroll-KI für die Verbesserung von KI eingesetzt, basierend auf neuronalen Netzwerken. Die KI verbessert sich somit selbst und kommt wohl mittlerweile bei Bilderkennung dem Menschen sehr nahe und übertrifft bereits die menschliche Kapazität bzgl. Spracherkennung (hier geht's zum Wissenschaftskauderwelsch).
Der Schritt zur KI-Singularität ist also gar nicht mehr so weit entfernt :(
Programme die nach dem Prinzip von künstlichen neuronalen Netzwerken funktionieren sind bereits Alltag. Ich habe selber während des Studiums in einem Praktikum verschiedene Programme geschrieben, die nach genau diesem Prinzip, oder dem ähnlichen Ameisenalgorythmus funktionierten. Und das, obwohl ich eigentlich garnicht programmieren kann! Was ich damit sagen will ist, dass diese Programme im Grunde recht simpel aufgebaut sind.
Tatsächlich verwenden etwa Navigationssysteme oder auch die Erkennung in unseren Smartphones, welcher Buchstabe auf dem Touchpad gedrückt wurde, schon lange genau solche Algorythmen.

Das Gute am Stand der heutigen Technik ist, dass eine KI, gleich auf welchem Prinzip sie basiert, nur genau die Aufgaben bewältigen kann, für die es programmiert wurde. Ein Sprachbot wird also nicht von alleine lernen können, wie man Börsenkurse vorhersagt. Solange diese Hürde nicht genommen wird, sind die sogenannten KIs in einem gewissen Rahmen kontrollierbar. Das bedeutet zwar nicht, dass diese Dinger nicht gefährlich sind. Ich halte gerade Bots auf Nachrichten- und sozialen Plattformen für eine reele Gefahr. Ein Skynet bleibt heute aber zumindest noch Science Fiction.
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Ein Sprachbot wird also nicht von alleine lernen können, wie man Börsenkurse vorhersagt.

Diese KI sind tatsächlich relativ einfach gestrickt, jedoch wird immer irgendein Wissenschaftler versuchen, einen Schritt weiter zu kommen und den einzelnen Programmen mehr "Rechte" zu geben, nur um zu schauen, was passiert. Bislang wird das ja noch gut abgeschottet vom Internet, aber moderne Viren sind ja eigentlich auch nichts Anderes als lernfähige Programme, die versuchen, sich den Abwehrmaßnahmen anzupassen...die "Hacker" machen da heutzutage bestimmt nicht mehr allzu viel selbst, oder?

Hach...jetzt muss ich gerade wieder an Superhuman Samurai Syber Squad denken :give_heart:
 

SoulReaper

Gelehrt
Beiträge
2.933
Punkte
128
Tatsächlich geht es weniger darum, einem Programm mehr oder weniger Rechte zu geben. Es kann schlicht nicht eigenständig Probleme lösen, für die es nicht gedacht ist. Da ist unser Gehirn jedem künstlichen neuronalen Netz noch meilenweit überlegen.

Und ich denke, die Annahme, ein Virus sei ein lernfähiges Programm, ist schlicht nicht korrekt. Viren nutzen auch heute noch Schwachstellen in Programmen aus, die ein Programmierer vorher entdecken muss. Der Virus wird dann so geschrieben, dass er diese Lücke ausnutzen kann. Wenn die Schwachstelle aber behoben ist, kann der Virus nichts mehr machen.
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Die KI "Open AI" hat während des International-Turnier drei der besten DOTA2-Spieler in 1v1-Spielen geschlagen...darunter den besten 1v1-Spieler und den Weltranglisten-Ersten.

Hier ein paar Ausschnitte zu den eigenständig erlernten Aktionen der KI (Ton ist nicht vorhanden):

Ich kenne mich bei DOTA2 auch nicht besonders gut aus, jedoch ist es beeindruckend, wenn die KI die Verhaltensweisen tatsächlich eigenständig mittels Trial&Error gelernt hat. Die Entwickler geben nämlich an, dass die KI nicht, wie üblich, menschliche Spieler kopiert sondern schrittweise die eigenen Aktionen selbst gelernt hat.

Hier das ganze Video von "Open AI" gegen den Spieler "Dendi":

Interessant ist für mich die Frage, wie man den enormen Geschwindigkeitsvorteil von KI gegenüber dem Menschen einschränkt, damit ein Wettbewerb zwischen beiden vernünftig funktionieren kann. Spieler in der Weltspitze von Starcraft 2 (natürlich zum Großteil Koreaner :D) schaffen ca. 400-600 apm (actions per minute), doch bisherige Bots übertreffen das bereits bei Weitem.

Gerade in Videospielen (und hier v.a. in Strategie-Titeln) ist die präzise Kontrolle jeder einzelnen Einheit wichtig, um sich einen möglichst großen Vorteil zu erarbeiten. Hier ein anschaulicher Vergleich zwischen IM-MVP (SC2-Legende, bekannt für seine Eiheitenkontrolle) und dem Automaton2000 (Micro-Bot):


Das ist schon lustig anzusehen, jedoch nur schlecht vergleichbar, da der menschliche Spieler nur zu einer begrenzten Anzahl an Aktionen in einem bestimmten Zeitraum fähig ist...
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Und weiter geht's: die google-KI AutoML sollte ein von Menschenhand erschaffene KI zur Erkennung von Objekten (Menschen, Tiere, Autos, etc.) verbessern und hat tatsächlich eine eigene, bessere Variante der NASNet-KI geschaffen. Die Erkennungsquote ist zwar nur von 81,5% auf 82,7% erhöht worden, aber sofort melden sich Kritiker bzgl. fehlender Ethik-Standards für KI zu Wort.

Alles sehr reißerisch in dem Artikel, aber Schritt für Schritt geht die Entwicklung voran...
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Ahahaha...auf Botnik Predictive Keyboard wurde auf Grundlage der Harry-Potter-Romane ein dreiseitiges Kapitel verfasst, welches sehr abstrus, jedoch im Stile von Harry Potter und v.a. sehr lustig ist (da absurd): Harry Potter and the portait of what looks like a pile of ash

Die Funktion selbst ist zwar keine richtige KI, jedoch wird das Programm mit dem Vokabular und dem Inhalt von HP gefüttert und macht dann - ähnlich der Autokorrektur auf dem Handy - Textvorschläge, die aneinander gereiht werden :)
 

SoulReaper

Gelehrt
Beiträge
2.933
Punkte
128
Ahahaha...auf Botnik Predictive Keyboard wurde auf Grundlage der Harry-Potter-Romane ein dreiseitiges Kapitel verfasst, welches sehr abstrus, jedoch im Stile von Harry Potter und v.a. sehr lustig ist (da absurd): Harry Potter and the portait of what looks like a pile of ash

Die Funktion selbst ist zwar keine richtige KI, jedoch wird das Programm mit dem Vokabular und dem Inhalt von HP gefüttert und macht dann - ähnlich der Autokorrektur auf dem Handy - Textvorschläge, die aneinander gereiht werden :)
Es gibt auch jetzt ein Death Metal Album, dass komplett von einem Programm "komponiert" und gespielt wurde. Ich such mal später einen Link dazu raus.
 

Zylerath

Eingesessen
Beiträge
135
Punkte
33
Meine 2-Cents:
KI... schön wär's. Sowas gibt es nicht. Das System lernt aus Standardsituation Verknüpfungen zu bilden. Je mehr Situation es durchgespielt hat umso genauer arbeitet das System.
Das hat weniger mit Intelligenz sondern vielmehr mit der Fähigkeit Auswendig zu lernen zu tun. Das können diese Systeme wirklich gut, besser als wir es können. Aber sicher doch, sind auch Rechner.
Du kannst einem neuronalen Netz beibringen Gesichter zu unterscheiden und das System kann dabei eine Trefferquote von 98% erreichen (wie damit umzugehen ist erkläre ich später), dennoch kann es keinen Apfel von einer Birne unterscheiden. Solche Systeme sind einfach immer spezialisierte Vollidioten.

Möchtest du eine wirkliche KI haben musst du dutzende, hunderte Neuroale Netze zusammenschließen. Eins für das erkennen von Personen, eins für das erkennen der Haustiere, eins für das analysieren von gesprochenen Befehlen, Straßenzüge, Redewendungen, Lieblingsfilme, Vorzüge und Schwächen von bekannten Menschen und natürlich einem Netz das entscheiden muss welches der Unternetze den gerade eine Entscheidung treffen müsste. „Muss ich in dieser Situation jetzt ein Haustier erkennen oder den richten Weg zum Bäcker finden?“
Harter Tobak, ich sage hier nicht unmöglich, aber echt harter Stoff.

Kommen wir zurück zum Verknüpfungen bilden. Hier wird es cool und schauderhaft.
Neuronale Netze können über das Sammeln und Analysieren von Daten ungeheure Verknüpfungen erstellen. Dabei geht es nicht nur darum, dass eine Person die Eier, Butter und Mehl kauft wohl einen Kuchen backen möchte sondern sowas abgefahrenes, dass eine Frau, die einen bestimmten Einkaufskorb mit nach Hause schleift mit hoher Wahrscheinlichkeit bald ein Kind bekommt, an Krebs erkrankt oder sich scheiden lässt. Das sind nur einige Beispiele und es wird noch an ganz anderen Dingen geforscht. Es sind auch einige nützliche Dinge dabei wie die vorhersage von Epidemien, Vulkanausbrüchen, Börsencrashs usw. Da steckt viel Potential und Geld dahinter. Hier haben die Medien, Versicherungen, die Politik und die Konzerne ein großes Interesse daran uns „noch besser“ kennen zu lernen.

Jetzt zu den berühmten 98%.
Stellt euch ein autonom fahrendes Fahrzeug vor, das in 98% aller Fälle das Ziel sauber erreicht. In 1,9% Prozent der Fälle kommt es in Situation in denen es, um Unfälle zu vermeiden, ausweichen kann oder abbremst. Leider baut das System aber in 0,1% der Fälle einen Unfall, lässt sich nicht vermeiden, shit happens.
Was soll das System denn in einem Unfall machen? Klar, Sachschaden vor Personenschaden, das leuchtet ein, also lieber den Blumentopf als die Oma umfahren. Was das angeht ist die Sache noch einfach. Wie sieht es aus, wenn zwischen der Oma auf der einen Seite und einem Kleinkind auf der anderen Seite zu wählen ist? Die Oma wählen, weil sie eh bald stirbt oder lieber das Kleinkind? Was wäre mit bei der Entscheidung zwischen einem Bus voller Omas und einem Kleinkind?
Darf man das überhaupt entscheiden, ist das ethisch vertretbar? Dem Auto ist das übrigens egal, es fährt vollkommen emotionslos jeden über den Haufen. Ich möchte nicht in der Haut des Entwicklers stecken, der das „optimieren“ muss.
Wer haftet denn überhaupt für den entstandenen Schaden? Das Auto (neeee)? Der Fahrer? Der Hersteller? Der Entwickler?
Das sind übrigens Themen die aktuell heiß diskutiert werden und sowohl den Fahrzeugherstellern, Forschern und Gerichten schon jetzt Kopfschmerzen bereiten.

Wer jetzt meint, dass 0,1% aber ganz schön selten ist, irrt. Ich möchte nicht in einer Welt autonomer Fahrzeuge leben, in dem mich jedes tausendste Auto über den Haufen fährt. In Wahrheit sind wir aktuell noch lange nicht bei 0,1%, auch wenn die Fahrzeughersteller uns das gern glauben machen wollen. Es gibt im Straßenverkehr mehr „nicht-Standard“ Situationen, mit denen das Fahrzeug nicht klarkommen kann als man glaubt, wer das anzweifelt soll mal Nachmittags um 16:00 durch Hamburg oder Frankfurt fahren.

Was mich angeht glaube ich also nicht an künstliche Intelligenz, sondern an Fachidioten.
Ich habe Angst vor autonomen Fahrzeugen, wenn ich nicht drinnen sitze.
Ich möchte nicht von neuronalen Netzen aufgrund meiner Essgewohnheiten oder Klamottenvorlieben einen Stempel aufgedrückt bekommen.

Ich denke die Diskussion ist ein bisschen wie die Sache mit der Genmanipulation. Wir haben hier ein enormes Potential die Welt positiv zu verändern. Das braucht -nur- gesunden Menschenverstand und einen Satz sinnvoller Regeln.
Trotzdem finde ich R2D2, C3PO, Data und Sonny doch ganz schön cool.
Also: Weiter mit Augenmaß forschen. Der Dschinn geht nicht wieder zurück in die Flasche.
 

SoulReaper

Gelehrt
Beiträge
2.933
Punkte
128
Ein weiteres Problem bei der Erschaffung einer echten KI dürfte auch weiterhin sein, dass unsere Rechner noch lange nicht stark genug sind. Außerdem wissen wir im Grunde immernoch nicht sehr gut, wie lernen eigentlich funktioniert. Solange diese beiden Punkte nicht gelöst sind, brauchen wir uns vor einer KI nicht zu fürchten.
Und wir schaffen es ja noch nichtmal, ein wirklich einfaches Nervennetz eines kleinen Wurms funktionell nachzubauen. Dabei kennen wir jede Nervenzelle (und das sind gerade mal um die 300) und alle Verbindungen in diesem Netz.
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Wie das Online-Magazin Motherboard berichtet, haben Forscher der US-Uni Berkeley eine KI entwickelt, welche durch Analyse Mikrobewegungen des Gesichts Lügner entlarven soll. Die Genauigkeit liegt derzeit bei ca. 90%, jedoch ist auch das aufgrund der Rahmenbedingungen im Labor mit Vorsicht zu genießen. Auf jeden Fall mal wieder ein kleiner Schritt voran zur allmächtigen KI :D
 

Zylerath

Eingesessen
Beiträge
135
Punkte
33
Es wird in absehbarer Zeit kein System geben, dass über die 98% rauskommt. 90% hat noch ganz schön Verbesserungspotential.
Ich finde die Idee hinter diesem Netz schauderhaft. Sowas lässt mich immer an Dystropien möglicher Zukünfte denken.
Gefährlich wird es, wenn einer von zehn Verdächtigen unschulidg in den Knast wandert und es genug Politiker findet die diese Streuung gerechtfertigt findet, in anbetracht der Tatsache auf diese Weise eine sichere und stabile Gesellschaft gewährleisten zu können.
Wen verklagt man eigentlich, wenn man aufgrund eines Maschienenfehlers unschuldig ins Gefängniss kommt? War das der Grund warum Lügendetektoren verboten wurden? Warum baut man jetzt ein Netz, dass es besser machen soll? Ich möchte in keiner Gesellschaft leben, in der es solche Netze braucht.
 

Marc Aurel

Gelehrt
Beiträge
2.755
Punkte
158
Wer kann schneller einen Stuhl von Ikea zusammenbauen: Mensch oder Maschine?
Vielleicht nicht unbedingt die anspruchsvollste Tätigkeit für eine KI, aber die Anleitung muss auch von einer Maschine länger studiert werden :D
Hier geht's zum entsprechenden Artikel aus dem Sciencemag.

Außerdem wurde in Japan eine KI namens Michihito Matsuda zur Wahl des Bürgermeisters aufgestellt, da sie nach Ansicht ihrer Schöpfer (Vizepräsident eines Kommunikationskonzern und dem ehemaligen Google-Repräsentanten in Japan) besser für gerechte und objektive Entscheidungen für die Gesellschaft geeignet wäre.
Sie hat schließlich gegen den amtierenden Bürgermeister verloren...älteren Mitbürgern hat ihr respktloses Auftreten auf dem Wahlplakat nicht gefallen :lol
Bildschirmfoto+2018-04-15+um+16.35.05.png

Quelle: engadget.com

Hier geht's zur Webseite der Bürgemeister-Kandidatin, auf der sie sich nach der Wahl bei ihren Wählern/ Fans bedankt.
 

SoulReaper

Gelehrt
Beiträge
2.933
Punkte
128
Ich bin grad auf ein paar Videos gestoßen, die wirklich gut erklären, was KIs und künstliche neuronale Netze können und wie sie funktionieren. Ich finde sie sehr unterhaltsam und gut verständlich gemacht. Der Macher hat übrigens seine Doktorarbeit in München genau an dem Thema geschrieben. Wenn ihr also mal einen kleinen Einblick in die Thematik bekommen wollt, schaut mal hier rein.
 
Oben Unten