C Y B E R T O P

Dies ist eine kostenlose Homepage erstellt mit hPage.com.

CYBERTOP NEWS

DIE GESCHICHTE DER K.I.

1.DER GEDANKENGENG

21 ottobre 2011 alle ore 10.03

....Geschichte der K.I.

 

Basierend auf den Arbeiten von Alan Turing (unter anderem dem Aufsatz Computing

machinery and intelligence) formulierten Allen Newell (1927-1992) und Herbert

Simon (1916-2001) von der Carnegie-Mellon-University in Pittsburgh die Physical

Symbol System Hypothesis, nach der Denken Informationsverarbeitung ist, Informationsverarbeitung

ein Rechenvorgang, also Symbolmanipulation, ist und es auf das Gehirn als

solches beim Denken nicht ankommt: Intelligence is mind implemented by any

patternable kind of matter.

 

Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz ist,

wird von den Vertretern der starken KI-These geteilt, wie beispielsweise

Marvin Minsky (*1927) vom Massachusetts Institute of Technology (MIT), einem

der Pioniere der KI, für den ?das Ziel der KI die Überwindung des Todes ist?,

oder von dem Roboterspezialisten Hans Moravec (*1948) von der Carnegie-Mellon-University,

der in seinem Buch "Mind Children" (Kinder des Geistes) das Szenario der

Evolution des postbiologischen Lebens beschreibt: Ein Roboter überträgt das

im menschlichen Gehirn gespeicherte Wissen in einen Computer, so dass die

Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnen

kann, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt.

 

Insbesondere die Anfangsphase der KI war geprägt durch eine fast grenzenlose

Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, ?Aufgaben

zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen

durchgeführt werden? (Minsky). Simon prognostizierte 1957 unter anderem,

dass innerhalb der nächsten 10 Jahre ein Computer Schachweltmeister werden

und einen wichtigen mathematischen Satz entdecken und beweisen würde, Prognosen,

die nicht zutrafen und die Simon 1990, allerdings ohne Zeitangabe, wiederholte.

Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister

Garry Kasparov in sechs Partien zu schlagen. Newell und Simon entwickelten

in den 1960er Jahren den General Problem Solver, ein Programm, das mit einfachen

Methoden beliebige Probleme lösen können sollte, ein Projekt, das nach fast

zehnjähriger Entwicklungsdauer schließlich eingestellt wurde. McCarthy schlug

1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform,

die Prädikatenlogik 1. Stufe, zu bringen. Die Idee war, Theorem-Beweiser

zu konstruieren, die symbolische Ausdrücke zusammensetzen, um über das Wissen

der Welt zu diskutieren.

 

Ende der 1960er Jahre entwickelte Joseph Weizenbaum (*1923) vom MIT mit einer

relativ simplen Strategie das Programm ELIZA, in dem der Dialog eines Psychiaters

mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend.

Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen

die Illusion eines beseelten Partners vermitteln kann. Auf einigen Gebieten

erzielte die KI Erfolge, beispielsweise bei Strategiespielen (Schach, Dame,

usw.), bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern,

beim Beweisen von logischen und mathematischen Sätzen und schließlich bei

Expertensystemen. In einem Expertensystem wird das regelbasierte Wissen eines

bestimmten Fachgebiets formal repräsentiert.

Das System ermöglicht dann bei konkreten Fragestellungen, diese Regeln automatisch

auch in solchen Kombinationen anzuwenden, die (von dem menschlichen Experten)

vorher nicht explizit erfasst wurden. Die zu einer bestimmten Problemlösung

herangezogenen Regeln können dann wiederum auch ausgegeben werden, d.h. das

System kann sein Ergebnis "erklären". Einzelne Wissenselemente können hinzugefügt,

verändert oder gelöscht werden; moderne Expertensysteme verfügen dazu über

komfortable Benutzerschnittstellen.

 

Einem der bekanntesten Expertensysteme, dem Anfang der 1970er Jahre von T.

Shortliffe an der Stanford University entwickelten System MYCIN zur Unterstützung

von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und

Meningitis, wurde durch eine Evaluation attestiert, dass seine Entscheidungen

so gut sind wie die eines Experten in dem betreffenden Bereich und besser

als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten

einer Cholera-Erkrankung - bekanntlich eine Darm- und keine Blutinfektionskrankheit

- eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit,

das heißt, MYCIN erkannte die Grenzen seiner Kompetenz nicht. Dieser Cliff-and-Plateau-Effekt

ist bei Expertensystemen, die hochspezialisiert auf ein schmales Wissensgebiet

angesetzt sind, nicht untypisch.

 

In den 1980er Jahren wurde der KI, parallel zu wesentlichen Fortschritten

bei Hard- und Software, die Rolle einer Schlüsseltechnologie zugewiesen,

insbesondere im Bereich der Expertensysteme. Man erhoffte sich vielfältige

industrielle Anwendungen, perspektivisch auch eine Ablösung "eintöniger"

menschlicher Arbeit (und deren Kosten) durch KI-gesteuerte Systeme. Nachdem

allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten

die Industrie und die Forschungsförderung ihr Engagement.

 

Mit den Neuronalen Netzen trat zur gleichen Zeit eine neue Perspektive der

KI ans Licht, angestossen u.a. von Arbeiten des finnischen Ingenieurs Teuvo

Kohonen. In diesem Bereich der schwachen KI löste man sich von Konzepten

von "Intelligenz" und analysierte stattdessen, ausgehend von der Neurophysiologie,

die Informationsarchitektur des menschlichen (/tierischen) Gehirns. Die Modellierung

in Form künstlicher neuronaler Netze illustrierte dann, wie aus einer sehr

einfachen Grundstruktur eine komplexe Musterverarbeitung geleistet werden

kann. Die Neuroinformatik hat sich als wissenschaftliche Disziplin zur Untersuchung

dieser Verfahren entwickelt.

Dabei wird deutlich, dass diese Art von Lernen im Gegensatz zu Expertensystemen

nicht auf der Herleitung und Anwendung von Regeln beruht. Daraus folgt auch,

dass die besonderen Fähigkeiten des menschlichen Gehirns innerhalb des Tierreichs

nicht auf einen solchen regel-basierten Intelligenz-Begriff reduzierbar sind.

Die Auswirkungen dieser Einsichten auf die KI-Forschung, aber auch auf Lerntheorie,

Didaktik, das Verhältnis zum Bewusstsein und andere Gebiete werden noch diskutiert.

 

In der KI haben sich mittlerweile zahlreiche Subdisziplinen herausgebildet,

so spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen,

Modelle zu Fragen von Revidierbarkeit, Unsicherheit und Ungenauigkeit und

maschinelle Lernverfahren. Die Fuzzy-Logik hat sich als weitere Form der

schwachen KI etwa bei Maschinensteuerungen etabliert.

Weitere erfolgreiche KI-Anwendungen liegen in den Bereichen natürlich-sprachlicher

Schnittstellen, Sensorik und Robotik.

 

....Methoden der K.I.

 

Die Neuronale KI verfolgt einen bottom-up-Ansatz und möchte das menschliche

Gehirn möglichst präzise nachbilden. Die Symbolische KI verfolgt umgekehrt

einen top-down-Ansatz und nähert sich den Intelligenzleistungen von einer

begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie

möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt

es dem phänomenologischen Ansatz nur auf das Ergebnis an.

 

Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf heuristischen

Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze

aus der Statistik, der Mathematischen Programmierung, und der Approximationstheorie

eine bedeutende Rolle.

 

Die konkreten Techniken der KI lassen sich grob in Gruppen einteilen:

 

Suchen

 

Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen

gesucht wird. Verschiedene Suchalgorithmen werden dabei eingesetzt. Ein Paradebeispiel

für die Suche ist der Vorgang der Wegfindung, der in vielen Computerspielen

eine zentrale Rolle einnimmt und auf Suchalgorithmen wie z.B. dem A*-Algorithmus

basiert.

 

Planen

 

Neben dem Suchen von Lösungen stellt das Planen einen wichtigen Aspekt der

KI dar. Der Vorgang des Planens unterteilt sich dabei in 2 Phasen:

 

1. Die Zielformulierung: Ausgehend vom momentanen Weltzustand wird ein Ziel

definiert. Ein Ziel ist hierbei eine Menge von Weltzuständen bei der ein

bestimmtes Zielprädikat erfüllt ist.

2. Die Problemformulierung: Nachdem bekannt ist welche Ziele angestrebt werden

sollen wird in der Problemformulierung festgelegt welche Aktionen und Weltzustände

betrachtet werden sollen. Es existieren hierbei verschiedene Problemtypen.

 

Agentensysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen,

die sie ausführen können, um ihre Ziele zu erreichen.

 

Optimierungsmethoden

 

Oft führen Aufgabenstellungen der KI zu Optimierungsproblemen. Diese werden

je nach Struktur entweder mit Suchalgorithmen aus der Informatik oder, zunehmend,

mit Mitteln der Mathematischen Programmierung gelöst. Bekannte heuristische

Suchverfahren aus dem Kontext der KI sind Evolutionäre Algorithmen.

 

Logisches Schließen

 

Eine Fragestellung der KI ist die Erstellung von Wissensrepräsentationen,

die dann für automatisches logisches Schließen benutzt werden können. Menschliches

Wissen wird dabei - soweit möglich - formalisiert, um es in eine maschinenlesbare

Form zu bringen. Diesem Ziel haben sich die Entwickler diverser Ontologien

verschrieben.

Schon früh beschäftigte sich die KI damit, automatische Beweissysteme (Deduktionssysteme)

zu konstruieren, die Mathematikern und Informatikern beim Beweisen von Sätzen

und beim Programmieren (Logikprogrammierung) behilflich wären. Zwei Schwierigkeiten

stellten sich:

 

1. Formuliert man Sätze in mächtigen, für den Benutzer bequemen Beschreibungssprachen

(beispielsweise Prädikatenlogik), werden die entstehenden Suchprobleme sehr

schwierig. In der Praxis machte man Kompromisse, wo die Beschreibungssprache

für den Benutzer etwas umständlicher, die zugehörigen Optimierungsprobleme

für den Rechner einfacher zu handhaben waren (Prolog, Expertensysteme).

2. Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht,

unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme

kann dies eine sehr ernste Einschränkung sein. Die aktuelle Forschung untersucht

daher Systeme, die die Regeln der Wahrscheinlichkeitsrechnung verwendet,

um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden

sich diese Methoden sehr von den älteren Verfahren (statt Symbolen werden

Wahrscheinlichkeitsverteilungen manipuliert).

 

 

Approximationsmethoden

 

In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine

Regel abzuleiten (maschinelles Lernen). Mathematisch führt dies zu einem

Approximationsproblem. Im Kontext der KI wurden hierzu Künstliche Neuronale

Netze vorgeschlagen. In praktischen Anwendungen verwendet man häufig alternative

Verfahren, die mathematisch einfacher zu analysieren sind.

 

 

Anwendungen

 

In der Vergangenheit sind Erkenntnisse der Künstlichen Intelligenz mit der

Zeit oft in die anderen Gebiete der Informatik übergegangen: Sobald ein Problem

gut genug verstanden wurde hat sich die KI neuen Aufgabenstellungen zugewandt.

Zum Beispiel wurden der Compilerbau oder Computeralgebra ursprünglich der

Künstlichen Intelligenz zugerechnet.

 

Zahlreiche Anwendungen wurden auf der Grundlage von Techniken entwickelt,

die einst Forschungsgebiete der KI waren oder es noch sind. Einige Beispiele:

 

* Das Programm Chinook ist seit 1994 Damespiel-Weltmeister.

* Suchmaschinen erleichtern den Umgang mit der im Internet vorhandenen Informationsflut.

* Deep Blue, ein Schachcomputer, besiegte 1997 den Weltmeister Garri Kasparow.

* Bei der Exploration von Ölquellen, der Steuerung von Marsrobotern oder

der medizinischen Diagnose werden Expertensysteme eingesetzt.

* Maschinelle Übersetzung ist weit verbreitet. Ihre Ergebnisse sind noch

nicht vergleichbar mit denen menschlicher Übersetzer, sparen jedoch viel

Zeit und Geld.

* Maschinelle Textzusammenfassung bietet einige versprechende Erfolgsaussichten.

* Analyse und Vorhersage von Aktienkursentwicklungen wird gelegentlich durch

künstliche Neuronale Netze unterstützt.

* Optische Zeichenerkennung liest gedruckte Texte zuverlässig.

* Handschrifterkennung wird millionenfach in PDAs verwendet.

* Spracherkennung wird kommerziell von Rechtsanwälten, Ärzten und der Deutschen

Bahn genutzt.

* Computeralgebra-Systeme, wie Mathematica oder Maple, unterstützen Mathematiker,

Wissenschaftler und Ingenieure bei ihrer Arbeit.

* Computer-Vision-Systeme überwachen öffentliche Plätze, Produktionsprozesse

oder sichern den Straßenverkehr.

* In Computerspielen dienen die Algorithmen, die in der KI entwickelt wurden

dazu, computergesteuerte Mitspieler intelligenter erscheinen zu lassen.

* Bei Gruppensimulationen für Sicherheitsplanung oder 3D-Computergrafik wird

ein möglichst realistisches Verhalten von (Menschen-)Massen berechnet.

 

....Teilgebiete der K.I.

Es werden mindestens vier Intelligenzarten unterschieden:

 

1. Visuelle Intelligenz

2. Sprachliche Intelligenz

3. Manipulative Intelligenz

4. Rationale Intelligenz

 

Des Weiteren kommen, je nach Differenzierungsgrad, solche Intelligenztypen

wie emotionale Intelligenz hinzu. Entsprechend der vier Intelligenzarten

sind zurzeit vier Teilgebiete in der Entwicklung:

 

1. Der Bereich der Mustererkennung machte Geräte möglich, die Bilder beziehungsweise

Formen erkennen können, beispielsweise Fingerabdrücke bei der Verbrechensbekämpfung,

die menschliche Iris bei der Personenidentifizierung, Werkstücke bei der

maschinellen Fertigung.

2. Man kann heutzutage per Computer einen eingegebenen Text in Sprache umwandeln

und umgekehrt Sprache als Text einlesen. Die Sprachsynthese und Spracherkennung

kann als Schnittstelle zwischen Computer und Mensch fungieren.

3. In der Fabrikationstechnik werden zunehmend frei programmierbare Automaten

eingesetzt, die gefährliche Arbeiten übernehmen und beispielsweise Schweiß-

und Lackierarbeiten oder eintönige ?Handgriffe? durchführen.

4. Computer, die in diesen Bereichen eingesetzt werden heißen Expertensysteme.

Solche Expertensysteme basieren auf einer Datenbank, in der Fachwissen gespeichert

ist. Darauf basierend kann das System, zusammen mit dem Anwender, Fachaufgaben

lösen. Wichtig ist, dass jede Schlussfolgerung des Programmes von diesem

an Hand der vorher eingespeicherten Fakten begründet werden kann. Sie werden

zurzeit in folgenden Bereichen mit Erfolg eingesetzt:

* medizinische Computerdiagnose

* Fehlersuch- und Fehlerbehebungsprogramme

* industrielle Großfertigung, beim Militär, zivile Luftfahrt, Verkehrswesen.

Der Grundgedanke ist es, zu untersuchen, unter welchen Bedingungen Computer

Verhaltensweisen von Lebewesen, die auf Intelligenz beruhen, nachvollziehen

können. Forschungsbereiche hierzu sind z. B. die Robotik, die Wissensverarbeitung

und die Spracherkennung.

 

....Künstliche Intelligenz

 

Künstliche Intelligenz (kurz KI oder AI, vom englischen Artificial Intelligence)

ist ein Teilgebiet der Informatik mit interdisziplinärem Charakter. Ziel

der KI ist die Entwicklung von Maschinen mit intelligentem Verhalten.

 

Im Verständnis des Begriffs künstliche Intelligenz spiegelt sich oft die

aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wieder,

dessen Nachahmung sich die sogenannte starke KI zum Ziel setzt: eine Intelligenz

zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und

die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein

sowie Emotionen auszeichnet. Die Ziele der starken KI sind nach Jahrzehnten

der Forschung illusionär und vom technischen Fortschritt unbeeindruckt geblieben.

 

Im Gegensatz zur starken KI geht es der schwachen KI darum, konkrete Anwendungsprobleme

zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu

deren Lösung nach allgemeinem Verständnis eine Form von ?Intelligenz? notwendig

zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation

intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es

geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis

von Intelligenz. Während die starke KI an ihrer philosophischen Fragestellung

bis heute scheiterte, sind auf der Seite der schwachen KI in den letzten

Jahren bedeutende Fortschritte erzielt worden.

 

Neben den Forschungsergebnissen der Kerninformatik selbst sind in die KI

Ergebnisse der Psychologie und Neurologie, Mathematik und Logik, Kommunikationswissenschaft,

Philosophie und Linguistik eingeflossen. Die Beeinflussung der Neurologie

hat sich in der Ausbildung des Bereichs Neuroinformatik gezeigt, der der

bioorientierten Informatik zugeordnet ist. Zusätzlich ist auch der ganze

Zweig der Kognitionswissenschaft zu nennen, welcher sich wesentlich auf die

Ergebnisse der künstlichen Intelligenz in Zusammenarbeit mit der kognitiven

Psychologie stützt.

 

 

 

enlightened

 

 

 

 

 

 

 

 

 

 

Dies ist eine kostenlose Homepage erstellt mit hPage.com.