Künstliche Intelligenz verbindet Wissenschaft und Technik mit dem Ziel, intelligente Computer und Maschinen zu schaffen. Das Ziel ist es, eine künstliche Entität, insbesondere einen Computer, zu entwerfen, der menschliches Wissen in höchstmöglichem Maße repliziert und kommuniziert. Um künstliche Intelligenz zu verstehen, ist es notwendig, den Begriff der Intelligenz zu definieren. Intelligenz ist die Fähigkeit, Ergebnisse zu erzielen, indem das Gehirn eingesetzt wird, um einen Plan auszudenken und auszuführen, der etwas geschehen lässt.

Kann eine Maschine denken? Nein, aber sie kann so konstruiert werden, dass sie den Anschein erweckt, zu denken. Das Ziel der künstlichen Intelligenz ist es, weiter zu gehen als nur die menschliche Intelligenz nachzubilden. Ihr Hauptziel ist das Lösen von Problemen. Es geht um die Speicherung von Wissen und die Versuche und Ergebnisse, die darauf abzielen, methodische Alternativen zu simulieren, und zwar so lange, bis eine Lösung erreicht ist. Der Intelligenzquotient (IQ) ist kein Medium zur Messung von KI. Der IQ misst die Lernfähigkeit und das Niveau.

Die heutigen Computer sind noch nicht in der Lage zu lernen. Sie nehmen gespeicherte Daten und berechnen Ergebnisse, die auf der Vermischung dieser Daten in einer Myriade von vielfältigen und unterschiedlichen Variationen basieren. Der Vorteil, den der Computer gegenüber dem menschlichen Gehirn hat, ist das Speicher- und Behaltenspotenzial. Ein Computer kann Tausende und Abertausende von Versuchen und deren Ergebnisse berechnen und sich merken, indem er sie alle zu einem bestimmten Zeitpunkt zur Überprüfung aufruft.

Das menschliche Gehirn kann nur in einem individuell begrenzten Umfang multitaskingfähig sein. Es speichert jede Erfahrung und nutzt diese Erfahrungen für Entscheidungsprozesse der Zukunft. Es kann nicht jede Erfahrung in den Frontallappen ziehen, um den Inhalt sofort zu überprüfen. Die Fähigkeit des Computers, Informationen zu behalten, hängt von seinem Speicherplatz ab. Es ist ein einfacher Prozess, das Gedächtnis eines Computers zu erweitern. Wenn ein Computer und ein Mensch an eine exakte Rechenaufgabe herangehen und der Mensch den Computer übertrifft, zeigt der Computer einen Mangel an richtiger Programmierung.

GESCHICHTE

Vor fünftausend Jahren entstand aus dem asiatischen Abakus das Motherboard der heutigen Computertechnologie. Im Jahr 1642 erfand Blaise Pascal die erste Rechenmaschine. Zweiundfünfzig Jahre später, 1694, erweiterte Gottfried Wilhelm von Leibniz die Rechenmaschine um Algorithmusberechnungen. Ein genetischer Algorithmus (GA) umfasst Algorithmen, die ihr Verhalten von evolutionären Mustern der natürlichen Selektion, Fitness, Reproduktion, Crossover, Mutation, Randomisierung, Leben und Tod ableiten.

Joseph-Marie Jacquard stellte 1805 einen automatisierten Weber vor, der mit einer höheren Geschwindigkeit als die Handarbeit produzieren konnte. 1821 gewann Charles Babbage das erste “Goldene Metall” der Britischen Astronomischen Gesellschaft für seine Arbeit “Beobachtungen über die Anwendung von Maschinen zur Berechnung mathematischer Tabellen”.

England patentierte 1842 eine Differential-Rechenmaschine. Ada Lovelace, das Kind von Lord Byron, wurde 1843 die erste Software-Ingenieurin, die Programme für eine analytische Maschine entwarf, um Schach zu spielen und Musik zu komponieren. 1890 patentierte Herman Hollerith, der Gründer von IBM, ein elektromechanisches Informationsgerät, das den US-Wettbewerb für die Nutzung von Elektrizität in der Datenverarbeitung gewann. Alan Turing, ein englischer Mathematiker, schuf mit Hilfe von Telefonrelais und elektromagnetischen Komponenten den ersten amerikanischen Computer Robinson, mit dem er im Zweiten Weltkrieg die deutschen Militärcodes knackte. 1943 löste Colossus unter Verwendung von 2000 Funk-Vakuumröhren Robinson ab.

Im Jahr 1941 schuf Konrad Zue den ersten voll programmierbaren Computer. Sechs Jahre später, 1947, wurde der Transistor erfunden, der die Vakuumröhre ersetzte und die Größe des Computers stark reduzierte. 1951 baute Marvin Minsky eine Maschine namens SNARC mit, die Labyrinthe manövrieren konnte. Es war die Erschaffung des ersten neuronalen Netzwerks. Auf einer Konferenz von Wissenschaftlern und Ingenieuren, die heute als “1958 Dartmouth Artificial Intelligence Conference” bezeichnet wird, prägte der Mathematiker John McCarthy den Begriff “Artificial Intelligence”.

In den 1960er Jahren schuf Daniel G. Bobrow ein Programm namens “Student”, das Algebra zu den Fähigkeiten eines Computers hinzufügte. Ihm folgte Edward A. Feigenbaum, der Chemie als Programm hinzufügte. Videospielhallen der 1970er Jahre führten KI in der amerikanischen Öffentlichkeit ein. Der in den 1980er Jahren entwickelte Atari führte Handheld-Geräte ein. Ebenfalls in den 1980er Jahren führte IBM Amerika in den Personal Computer (PC) ein. Im Jahr 1993 wurde der erste Browser namens “MOSAIC” entwickelt. 1997 besiegte dann ein Supercomputer namens “Deep Blue” den Weltklasse-Schachspieler Gary Kasparov.

Heute schrumpfen die Nicht-Informationsindustrien. Wir haben dies in den letzten sechs Jahrzehnten beobachtet. Wo früher Mom and Pop Stores das Lebensmittelgeschäft dominierten, gibt es heute Supermärkte. Heute können Sie auf einen Parkplatz fahren, wo ein Anbieter Benzin, Lebensmittel, Schönheitsmittel, Medizin, Blumen, Parfüm, Zeitschriften, Spielzeug, Kleidung, Fast Food, Fotografie, Sportartikel, Schusswaffen, Kunsthandwerk, Schuhe, Elektronik und mehr anbietet. Es ist einfach, das Konzept des One-Stop-Shopping zu begreifen. Es ist nur ein weiterer Schritt, um KI und einen Supercomputer zu begreifen, der unbegrenzte Lösungen für die Bedürfnisse und Wünsche der Welt bietet.

FORSCHUNG

KI wird seit etwa sechzig Jahren in den USA, Europa und Asien erforscht, insbesondere in Griechenland, Deutschland, China, Japan, Frankreich, Schweden und dem Iran. Einige schreiben Alan Turing das Verdienst zu, sie mit seinem Vortrag von 1947 in die Öffentlichkeit gebracht zu haben. In seiner Theorie vertrat er die Ansicht, dass zur Erschaffung von KI Computer notwendig sind und nicht nur gewöhnliche Maschinen. In nicht-technischer Sprache ausgedrückt, kann ein Traktor, der ein geschärftes, sich drehendes Messer zieht, Gras für den ersten Schritt im Prozess der Heulagerung schneiden. Dies stellt eine Maschine und ein Anbaugerät dar. Für das Speichern und Analysieren von Daten ist ein Rechengerät notwendig. Ohne entsprechende Programmierung kann das Messer nicht sagen, mit welcher Geschwindigkeit es sich gedreht hat oder wie dick die einzelnen Grashalme waren. Der Traktor kann nicht sagen, wie viel Treibstoff er verbraucht hat oder wie viele Männer für das Mähen nötig waren. Er kann auch keine Daten darüber liefern, wie lange es gedauert hat, eine bestimmte Fläche zu mähen oder wie viele Heuballen die gemähte Fläche produziert hat. Für diese Art von Daten ist ein Computerprogramm erforderlich.

In Alan Turings Artikel “Computing Machinery and Intelligence” aus dem Jahr 1950 behauptete er, dass eine Maschine, die einem gelehrten Individuum menschenähnliche Denkfähigkeiten präsentiert, eine intelligente Maschine sei. Viele Philosophen bezeichneten den Turing-Test als streng einseitig. Die meisten stimmten zu, dass eine solche Maschine Intelligenz zeigte, aber das war nicht ausreichend, um die Mehrheit der Wissenschaftler zu befriedigen. Sie argumentierten, dass der Turing-Test nur die Intelligenz des beobachtenden Individuums beweise und das sei nicht das, was die Suche nach einer intelligenten Maschine erfordere.

Seit sechzig Jahren versuchen Forscher, die Größe von Computern zu reduzieren, ihre Geschwindigkeit zu verbessern und einen Computer zu entwickeln, der so lernen kann wie ein menschliches Kind. Der Vorteil der Manövrierbarkeit und Benutzerfreundlichkeit, der durch die Verkleinerung erreicht wird, ist herausragend. Geschwindigkeit ist gut, aber Computer, die für Geschwindigkeiten jenseits des menschlichen Vorstellungsvermögens ausgelegt sind, sind nur schnelle Computer und immer noch an die in sie einprogrammierten Daten gebunden. Wird ein Computer jemals eine Stufe erreichen, auf der er in der Lage ist, zu lernen und sich selbst zu verbessern? Wahrscheinlich, aber im Moment liegt der begrenzende Faktor in der Programmierung. Menschliche Programmierer können nur Daten eingeben, die sie selbst in sich tragen oder die sie von anderen Menschen erhalten können. Zu diesem Zeitpunkt im Jahr 2010 hat noch niemand erfolgreich einen Computer formuliert, der in der Lage ist, Lernfähigkeiten zu replizieren.

Die US-Regierung war die Hauptstütze hinter der KI. Die Gründung der Defense Advanced Research Projects Agency (DARPA) erfolgte 1958 als Überwachungsinstrument nach dem Start von SPUTNIK, dem ersten weltraumfahrenden Satelliten. Während des Golfkriegs setzte die DARPA KI zur Planung von Militäreinheiten im Nahen Osten ein. In den letzten 50 Jahren hat das Militär KI für die Identifizierung feindlicher Flugzeuge, Waffen und das Anvisieren von Objekten aus großer Entfernung eingesetzt.

In der Luftfahrtindustrie wird seit langem KI für Autopilot-Manöver eingesetzt. Der von der Sperry Corporation entwickelte Autopilot steuert hydraulisch betätigte Ruder, Höhen- und Querruder. Dieses System hat eine enorme Reduzierung der Pilotenfehler beim kontrollierten Starten, Steigen, Nivellieren, Anflug und Landen bewirkt.

Nanotechnologie

Die Nanotechnologie ist ein wichtiger Akteur in der globalen Wirtschaft und nimmt einen wichtigen Platz im Gesamtbild der KI ein. Die Welt steht am Rande einer nanotechnologischen Revolution. Aufgrund ihrer Größe – ein Nanometer ist ein Milliardstel Meter – wird dies in Wirklichkeit eine unsichtbare Revolution sein. Richard Feynman erhielt den Nobelpreis für seine Arbeit auf dem Gebiet der Nanotechnologie. Im Jahr 1959 stellte er die Theorie auf, dass Materie auf atomarer Ebene beweglich ist. Die Forschung im Bereich der Nanotechnologie erforderte die Entwicklung neuer Werkzeuge und Instrumente, die in der Lage sind, mit Materie in einem so kleinen Maßstab zu arbeiten. Ein solches Instrument ist das 1981 konstruierte Rastersondenmikroskop (SPN). Am 3. Dezember 2003 unterzeichnete Präsident George W. Bush den 21st Century Nanotechnology Research and Development Act, der 3,7 Milliarden Dollar für Forschungsausgaben in den nächsten vier Jahren bewilligt.

Die erste Aufgabe der Nanotechnologie liegt in der Verbesserung von bestehenden Produkten. Die zweite liegt in radikalen Innovationen. Heute beginnt das Studium der Nanotechnologie bereits in der High School. Die International BioGENEius Challenge lädt zu Einsendungen aus der ganzen Welt ein. Zu den Gewinnern gehören so geniale Arbeiten wie John Zhou’s pathogen-detektierender Biosensor, der Polymere als Nanodrähte verwendet. Die Universität von Kalifornien hat Nanotechnologie-Zentren in Berkley, Los Angeles und Santa Barbara. Außerdem gibt es Nanotechnologieprogramme am MIT und in Harvard, an der Cornell und Columbia University, am Purdue und Rensselaer Polytechnic Institute sowie an der Rice University.

Die Nanotechnologie-Ausbildung wird von zehn Abteilungen Physik, Technik, angewandte Wissenschaft, Chemie, chemische Biologie, Anthropologie, Philosophie, Wirtschaft, Religion und Mathematik gezeichnet. Es wird vorhergesagt, dass die Nanotechnologie bis 2014 eine weltweite Industrie mit einem Wert von 2,6 Billionen Dollar sein wird, die bis 2020 2 Millionen Arbeitskräfte beschäftigen wird. Nanotechnologie Karrieren umfassen Anwendungen Ingenieure, Patent-Agenten, Forscher, Forschung und Entwicklung Chemiker, wissenschaftliche Medikament Formulierer, Verkapselung und Mikro-Fertigung Techniker und biomedizinische Mikro-Nano-Systeme Wissenschaftler.

Unternehmen wie IBM, Hewlett-Packard, Intel, DuPont, GE, Dow Chemical, Merck, ExxonMobil, ChevronTexaco und GM rekrutieren alle gut ausgebildete Mitarbeiter. Karrieren im Bereich der Nanotechnologie sind bei Zyvex mit Niederlassungen in Dallas, Austin und Houston Texas möglich. Derzeit findet ein Wettlauf um Durchbrüche bei Solarzellen, Medikamentenverabreichungssystemen, Computerchips und Batterien statt.

Eines der ersten Nanoteilchen, das geschaffen wurde, war das Buckminsterfulleren, oft auch “Buckyball” oder “Fulleren” genannt. Dies sind Kugeln, die aus 60 Kohlenstoffatomen bestehen. Diese Atome verbinden sich zu 12 Fünfecken und 20 Sechsecken auf der Moleküloberfläche, die einen Nanometer im Durchmesser hat. L’Oreal verwendet Buckyballs bei der Herstellung von Gesichtscremes. Die Forschung hat gezeigt, dass Buckyballs elektronische Schalter durch optische Schalter ersetzen können, was die Geschwindigkeit, mit der Informationen über Glasfasernetzwerke übertragen werden, revolutioniert. Das Kohlenstoff-Nanoröhrchen ist ein weiteres Nanoteilchen, das aus einem Gitter von Kohlenstoffatomen besteht, die einen Zylinder bilden. Das Nanoröhrchen ist so stark wie Stahl, aber leicht.

Der “Nano-Kristall” oder Quantenpunkt ist ein Nano-Partikel, der Licht erzeugt, wenn er mit Energie geladen wird. Zu den Nano-Materialien gehören Nano-Draht, Nano-Ton, Nano-Pulver und Nano-Beschichtungen. Diese Materialien haben Halbleiter, Brennstoffzellen, Katalysatoren, Flachbildschirme, Kunststoffe und das Gesundheitswesen verbessert und bieten viele weitere Anwendungen. Nanomaterialien verbessern Sportgeräte wie Tennisbälle und -schläger mit Nanoröhrchen. Die Tabakindustrie nutzt derzeit Nanotechnologie, um Tabakpflanzen gegen Insekten und Krankheiten zu impfen und für schnelles Wachstum und Haltbarkeit zu sorgen. Eine neue Soldatenuniform mit dem Namen “The Vision 2020 Future Warrior” nutzt Nanotechnologie für Sensoren, Robotik, robuste Panzerungen, Autokommunikationssysteme, Exomuskeln und Materialien mit Molekülen zur Behandlung von Verletzungen. Andere Bereiche, die von der Nanotechnologie betroffen sind, sind Kosmetika, Bekleidung, Medizin, Energie und Telekommunikation.

In der Bekleidungsindustrie werden mit Nanomaterialien schmutzabweisende Jeans, Fußwärmer für Stiefel und statisch resistente Stoffe und Materialien hergestellt. Es gibt nanotechnisch verbesserte Gummiprodukte wie z. B. Reifen. Es gibt gefertigte Diamanten, und dies ist nur eine kleine Auswahl. Nanotechnologische Skalierungsprinzipien haben den MP3-Player im Taschenformat von Apple Computer und den IPOD Nano hervorgebracht. Die Nanotechnologie bietet Alternativen zur Photolithographie, einschließlich Elektronenstrahl-Lithographie, Röntgenstrahl-Lithographie, Ionenstrahl-Lithographie und Soft-Lithographie. Eine Innovation, die sich derzeit in der Entwicklungsphase befindet, ist das Ersetzen des Siliziumchips durch einen Kohlenstoff-Nanoröhren-Chip. IBMs Kreation, der Millipede, speichert eine riesige Menge an Daten im Nanomaßstab auf einer Polymerplatte. Er ist schnell, energieeffizient und erschwinglich.

Im medizinischen Bereich umfasst die Nanotechnologie Nanosilber, einen antibakteriellen Verbrennungsverband, Abraxane, ein Medikament zur Behandlung von Brustkrebs in Nanopartikeln, und Nanotech-Zahnklebstoffe und Zahnfüllungen sowie Hunderte von anderen Verbesserungen und Innovationen. Viele Bestandteile des Menschen haben die Größe von Nanometern. Die DNA ist etwa 2 Nanometer breit. Viren sind etwa 50 Nanometer lang.

Molekulare Fertigung

Ein Molekül ist das kleinste Teilchen einer Substanz, eines Elements oder einer Verbindung, das die chemischen Eigenschaften der Substanz, des Elements oder der Verbindung beibehält. Ein Molekül sind zwei oder mehr Atome, die durch chemische Bindungen zusammengehalten werden. Jede Art der Herstellung erfordert die Anordnung von Atomen. In der Chemie und Biologie entstehen Moleküle, die durch eine bestimmte Anordnung von Atomen definiert sind. Diese Anordnungen enthalten immer die gleiche Anzahl, Art und Bindung. Die Biologie arbeitet mit Zellen, die molekulare Maschinen enthalten, die digitale genetische Daten lesen, die den Zusammenbau großer Moleküle leiten, normalerweise Proteine, die als integrale Teile der molekularen Maschinen dienen. Die molekulare Fertigung verwendet gespeicherte Daten, um molekulare Maschinen zu konstruieren.

Wo die Chemie die zufällige Anordnung von Molekülen erlaubt, platziert die molekulare Maschinenmontage Moleküle an bestimmten Orten und in bestimmten Sequenzen. Das Festhalten und Positionieren von Molekülen steuert deren Reaktionen und ermöglicht den Aufbau komplexer Strukturen mit atomarer Präzision. Viele glauben, dass die molekulare Fertigung die Montage von Selbstreplikatoren erfordert; dies ist ein falsches Konzept.

Mikro-elektromechanische Systeme (MEMS)

MEMS sind Systeme oder Maschinen, die auf der Mikroskala existieren, wie z. B. Mikrofluidik-Chips, Sensoren, Schalter, Motoren und Labs-on-a-Chips (LOC). LOCs verbessern DNA-Tests. MEMS sind die Technologie der kleinen elektronischen Geräte, die durch Elektrizität angetrieben werden. MEMS verschmelzen auf der Nanoskala zu nano-elektromechanischen Systemen (NEMS). MEMS sind getrennt und einzigartig von der molekularen Fertigung. Sie bestehen aus Komponenten mit einer Größe von einem bis hundert Mikrometern. Sie bestehen aus einer zentralen Datenverarbeitungseinheit, einem Mikro-Kompressor und mehreren Komponenten, die mit der Außenwelt interagieren, den sogenannten Mikro-Sensoren.

Robotik & Neuronale Netze

Der “Afghan Xplorer”, ein am MIT entwickelter mobiler Roboter, zeichnet Daten für Reporter in feindlichen Umgebungen und Kriegsgebieten auf. Das Las Alamos National Laboratory in New Mexico arbeitet an Roboterkomponenten, die gefährlichen Umgebungen standhalten. ASIMO ist ein Roboter, der mit Hilfe von Sensoren und intelligenten Algorithmen das Anstoßen an Hindernisse vermeidet und Treppen hinauf- und hinabsteigt. Kismet ist ein Roboter mit sozialen Fähigkeiten.

Neuronale Netze oder Schaltkreise bestehen aus biologischen Neuronennetzen oder künstlichen Neuronennetzen. Synapsen sind Neuronenverbindungen, die von Axonen zu Dendriten gebildet werden. Die KI simuliert einige der Eigenschaften neuronaler Netze bei der Spracherkennung, der Bildanalyse und der adaptiven Steuerung, um Software-Agenten in Computer- und Videospielen und autonomen Robotern zu konstruieren. Das Konzept für neuronale Netzwerke begann im 19. Jahrhundert mit Versuchen zu beschreiben, wie der menschliche Verstand funktioniert.

Künstliche Intelligenz: Ein willkommenes Wunder
Künstliche Intelligenz: Ein willkommenes Wunder

WERKZEUGE & SPRACHEN

Um auf dem Gebiet der KI erfolgreich zu sein, sind mathematische Fähigkeiten und ein tiefes Verständnis sowohl der Physik als auch der Biologie erforderlich. Der biologische Ansatz der KI untersucht das menschliche Nervensystem sowohl aus physiologischer als auch aus psychologischer Sicht. Ein gutes Verständnis von Programmiersprachen ist erforderlich. U.S.-Truppen im Irak benutzen tragbare Sprachübersetzer. Die am besten zu erlernenden Sprachen sind C, C++, Java, Lisp (LISt Processing), Scheme und Prolog.

Die KI-Branche bewegt sich nach Meinung einiger Wissenschaftler im Schneckentempo, aber in Wirklichkeit befindet sie sich in einem Zustand der ständigen Veränderung und Weiterentwicklung. Wenn Sie 1990 Java sprachen, konnten Sie sich durch Forschungsprogramme auf niedrigerer Ebene hangeln. In Java ist ein genetischer Algorithmus (GA) ein Algorithmus, der neuen Code aus bestehendem Code reproduziert. Java ist eine ausgezeichnete Wahl, aber im Jahr 2010 ist es nicht immer die einzige benötigte Sprache. In der Tat ist das Erlernen von zwei oder mehr Computersprachen oft notwendig.

ANSÄTZE

Aufgabensysteme werden durch das Sammeln von Wissen von Experten auf einem bestimmten Gebiet oder einer Domäne und die Entwicklung eines Programms zur Ausführung dieser Aufgabe erreicht. In diesem Bereich gab es viele Enttäuschungen, da die konsultierten Experten jeweils vorgegebene Ergebniserwartungen hatten, die auf ihren individuellen Erfahrungen basierten. Die Ingenieure, die die aufgabenorientierten Programme entwickelten, waren darauf beschränkt, nur innerhalb etablierter Datenbanken zu arbeiten.

Computergenerierte Brettspiele sind ein Paradebeispiel für den endlichen Unterschied zwischen Denken und Rechnen. Spiele wie Schach und “Go” erfordern strategisches Denken, zu dem Computer nicht fähig sind. Um gegen einen Weltklassespieler zu gewinnen, muss ein Computer bis zu 200 Millionen Positionsberechnungen durchführen. Deep Blue besiegte einen Schachprofi, aber nicht, indem er ihn überdachte, sondern indem er ihn überrechnete.

Finanzkontrollaufgabensysteme sind relativ erfolgreich und basieren auf mathematischen Gleichungen. Geldautomaten, computergesteuerte Registrierkassen und Kreditkartensysteme verwenden gespeicherte Berechnungen und einfache mathematische Verfahren. Finanzkontrollprogramme fallen unter die heuristische Klassifizierung und bieten gute Beispiele für erfolgreiche KI-Programmierung. Die KI-Forschung hat zwei Ansatzpunkte. Der biologische Ansatz versucht, menschliches Verhalten und menschliche Reaktionen zu imitieren. Der zweite Ansatz imitiert den gesunden Menschenverstand und logische Reaktionen.

ANWENDUNGEN

Vier der häufigsten Anwendungen von KI sind Spiele, Spracherkennung, Aufgabensysteme und Finanzkontrollen. Heute gibt es eine riesige Vielfalt an Computerspielen, die von Menschen aller Altersgruppen, vom Säugling bis zum über Neunzigjährigen, gespielt werden. Es gibt Fantasy-Spiele, Lernspiele, Kriegsspiele, Sportspiele, Geschicklichkeitsspiele und vieles mehr. Spracherkennung anstelle von Tastatur und Maus bietet zusätzlichen Komfort, ist aber nur begrenzt einsetzbar. Umfangreiche Forschung und Entwicklung werden in naher Zukunft die medizinischen Transkriptionsmethoden neu definieren.

KI ist multifunktional und wird eingesetzt, um Blinden vorzulesen, Rollstühle zu manövrieren und in einer Vielzahl von medizinischen Geräten vom Elektrokardiogramm bis zum Hörgerät. Prothesen- und Cyberkinetik-Neurotechnologen arbeiten an einem System namens Brainwave, das es einem Chip im motorischen Kortex des Gehirns bald ermöglicht, Gehirnwellen zu entschlüsseln und die Bewegung einer künstlichen Gliedmaße durch die Gedankenrichtung des Benutzers zu steuern.

Die erste mit KI entwickelte Beinprothese wurde am 30. März 2006 in New York fertiggestellt. Das Mitsubishi Concept Auto ist ein Produkt der KI, das von Lithium-Ionen-Batterien angetrieben wird. Hörgeräte nutzen KI, um Ablenkungen herauszufiltern. AMAZON.COM war eine der ersten Websites, die KI einsetzte, um Käufern auf der Grundlage früherer Einkäufe verwandte Waren anzubieten. GOOGLE’S Vision war es, den gesamten gedruckten Inhalt der Welt mit Hilfe von Forschungsscannern und Scannern online durchsuchbar zu machen.

Mithilfe der globalen Positionierung können “Smart”-Telefone Verkehrsbehinderungen vorhersagen und lokalisieren. Globale Positionierungssender verfolgen Minderjährige, die unter Hausarrest stehen, und erwachsene Kriminelle, die beide mit legal angebrachten Fußfesseln, die Ai-Geräte sind. Das US-amerikanische Global Positioning System (GPS) unterstützt Autos und Handys bei der Kartierung von Zielen und der Ortung von Fahrzeugen und Personen in Not. Die Europäische Weltraumorganisation (ESA) startete 2005 ihr globales Navigationssatellitensystem “Galileo” als Konkurrenz zum US-amerikanischen GPS.

PHILOSOPHIE

Techniker schauen auf das, was in der KI-Forschung noch fehlt und sind überwältigt von ihrer Unfähigkeit, sofort die richtigen Datenverarbeitungsprogramme zu formulieren. Computerneulinge schauen auf die wundersamen Aufgaben, die von Computern erledigt werden, und sind in atemlosem Staunen versetzt. Dies bestätigt die Wahrnehmung, dass der Turing-Test wirklich einseitig ist. Viele Philosophen und Wissenschaftler lehnen KI ab und behaupten, sie sei inkohärent, unmöglich, obszön, antihuman und unmoralisch.

Bei der Erforschung von KI ist “die Singularität” ein gängiger Begriff. Vernor Vinge, ein Informatiker und Science-Fiction-Autor, benutzte diesen Begriff in einem Aufsatz, den er 1993 schrieb und in dem er seine Sichtweise des Konzepts von ultraintelligenten Computern beschrieb. “Die Singularität” beschrieb eine Maschine mit mehr als menschlicher Intelligenz.”

Kevin Kelly, ein Redakteur der Zeitschrift “Wired”, schreibt ein Buch mit dem Titel “The Technician”, in dem er die Entstehung eines globalen Gehirns vorhersagt. Er stellt seine Idee vor, dass zu einem unbekannten zukünftigen Zeitpunkt die miteinander verbundenen Computer des Planeten sich koordinieren und tatsächliche Intelligenz zeigen könnten. William Joy, ein Computerdesigner und Mitbegründer von Sun Microsystems, hat die Theorie, dass die menschliche Rasse eher dazu neigt, sich mit ihrer eigenen Technologie selbst zu zerstören, als eine Utopie mit Hilfe von KI zu schaffen.

In den 1950er Jahren sagten Forscher voraus, dass KI-Computer, die zu übermenschlichen Berechnungen und simulierten inneren Gedanken fähig sind, in zehn Jahren fertig sein würden. Sechzig Jahre später machen sie keine so kühnen Proklamationen mehr. Obwohl es unter KI-Forschern, Ingenieuren und Wissenschaftlern erhebliche Meinungsverschiedenheiten gibt, sind sie sich in einem wichtigen Punkt einig: “Wenn sie einen Moment vor dem Erreichen der “Singularität” sterben, wäre das unfair.”

KARRIERE

KI stimuliert das Wirtschaftswachstum und bietet viele Karrieremöglichkeiten. Videospiel-Designer verdienen anfangs etwa 25.000 Dollar pro Jahr. Erfahrene Designer verdienen bis zu 100.000 Dollar im Jahr. Der durchschnittliche amerikanische Designer verdient zwischen $45.000 und $65.000 im Jahr. KI-Ingenieure verdienen sehr gut. Die Spanne ist vielfältig und hängt von den individuellen Fähigkeiten ab. Der Designer, der für FIDO C FIELD Integrated Design and Operations, einen mechanischen Roboter-Rover, der von der NASA eingesetzt wird, verantwortlich war, hat einen größeren Gehaltsscheck eingefahren als die Ingenieure, die KI-Kassen entworfen haben. Die mittleren Gehälter von Wissenschaftsautoren liegen bei etwa 45.000 Dollar pro Jahr. Der Verdienst variiert je nach Umfang und Niveau der Forschungsarbeit.

Informatiker verdienen lukrative Geldbeträge. Auch hier hängt der Unterschied zwischen $40.000 und $250.000 Jahreseinkommen von den Fähigkeiten des Einzelnen und dem Projektauftrag ab. Es gibt einen Bedarf an Programmierern, Technikern, Lehrern und vielen anderen Positionen. Konzerne wie GE, Microsoft, IBM und AT&T sind nur einige der Unternehmen, die ständig auf der Suche nach gut ausgebildeten Talenten sind. Je höher der Abschluss des potenziellen Mitarbeiters ist, desto höher ist auch die Bezahlung. Einstiegspositionen sind bei Yahoo!, Google, IBM, AT&T;, GE und NecGrow verfügbar.

ORGANISATIONEN

Die Association for the Advancement of Artificial Intelligence (AAAI) ist eine 1979 gegründete gemeinnützige Organisation. Sie widmet sich der Förderung des wissenschaftlichen Verständnisses der Mechanismen, die dem Denken und intelligenten Verhalten zugrunde liegen, und deren Verkörperung in Maschinen. Ihr Ziel ist es, das öffentliche Bewusstsein und das Verständnis für KI zu erhöhen, Lehr- und Trainingsmethoden unter KI-Praktikern zu verbessern und Planern und Geldgebern Orientierung zu bieten.

Die AAAI organisiert und sponsert Konferenzen, Symposien und Workshops. Sie geben eine vierteljährliche Zeitschrift heraus. Sie veröffentlichen Bücher und Berichte. Sie vergibt Zuschüsse und Stipendien sowie verschiedene andere Ehrungen. Ihre sechste AI for Interactive Digital Entertainment Conference fand am 10. Oktober 2010 in Palo Alto, Kalifornien, statt.

Ihr Herbstsymposium beginnt am 11. November 2010 in der Nähe von Washington D. C. Ihr Frühjahrssymposium beginnt am 21. März 2010 in Palo Alto. Die 25. AAAI-Konferenz in San Francisco, Kalifornien, findet am 7. August 2011 statt.

Das Computer Museum of America befindet sich in San Diego, Kalifornien und bietet ein großartiges Kulturmedium für die Öffentlichkeit.

ZUKUNFT

In unmittelbarer Zukunft wird der Supercomputer 2011 zehn Millionen Milliarden Berechnungen pro Sekunde durchführen, die als zehn Milliarden MIPS bezeichnet werden. Bis 2020 wird dieser Computer für jeden Haushalt erschwinglich sein. Das menschliche Gehirn ist auf einen ein Kubikfuß großen Behälter, den Schädel, beschränkt und überträgt Nachrichten mit ein paar hundert Fuß pro Sekunde, was eine Million Mal langsamer ist als Elektronik. Die Großhirnrinde enthält etwa eine Milliarde Mustererkenner. Die Computer der nahen Zukunft werden eine Billion enthalten. Die Forscher, Ingenieure und Techniker, die an diesem Supercomputer arbeiten, wollen dorthin gelangen, wo es bisher unmöglich war.

Ein solcher Bereich sind nanotechnisch hergestellte Photovoltaikmodule, die fossile Brennstoffe überflüssig machen. Zwei weitere Bereiche sind hydroponische computergesteuerte vertikale Landwirtschaft und in-vitro-geklontes Fleisch. Es gibt Projektingenieure, die Nanomaßstäbe entwerfen, um Mikromaßstäbe zu ersetzen, die dreidimensionale, komplexe Objekte drucken können, die in der Lage sind, kostengünstige Wohnmodule mit eingebauten Rohren und Kabeln zu entwerfen. Das Ziel ist die Unterbringung der Entwicklungsländer zu sehr niedrigen Kosten. Diese Technologie soll bis 2030 fertiggestellt sein und in der Lage sein, kostengünstige Module für alle Bedürfnisse zu produzieren.

Die Gruppe, die an dem Supercomputer und seinen nachfolgenden Updates und Verbesserungen arbeitet, geht von dem Grundsatz aus, dass sich der Mensch auf ein Intelligenzniveau entwickelt hat, das sich nicht wesentlich ändern wird, und dass die KI-Technologie schließlich die Oberhand gewinnen wird. Dieses Wort “vorherrschen” zeichnet Bilder im Kopf eines Neulings von feindlichen Übernahmen durch Computer und Maschinen, wie sie in populären Science-Fiction-Filmen gezeigt werden. Dies ist aber nicht die Realität. Die “Vorherrschaft” ist nur eine weitere Möglichkeit, die menschliche Reichweite auf Orte auszudehnen, wo sie ohne KI nicht hinkommen würde. Dieselben Neulinge befürchten, dass Milliarden religiöser Menschen auf der ganzen Welt gegen KI sein werden. Auch dies ist ein Irrglaube. Die großen Religionen begrüßen alle wissenschaftliche Entdeckungen, die menschliches Leid mindern. Sie sind für das Leben und fördern und unterstützen den medizinischen Fortschritt und die Überwindung von Krankheit und Hunger.

Heute haben die meisten amerikanischen Haushalte Computer und elektronische Spielzeuge. In vielen Haushalten im ganzen Land hat jedes Mitglied des Hauses seinen eigenen persönlichen Computer. Überall auf der Welt sind Computer für den öffentlichen Gebrauch verfügbar. Früher waren ihre Größe und Kosten unerschwinglich, heute sind sie in beiden Bereichen praktisch. Die Technologie im Allgemeinen verwirklicht die Dezentralisierung. Das Internet ist ein Paradebeispiel dafür. Wenn ein Teil davon ausfällt, ist selten etwas verloren. Es wird einfach ein Weg berechnet, um die Unterbrechung zu umgehen. Der Neuling findet das beängstigend, der Profi berauschend.

Sind computergesteuerte Autos in der nahen Zukunft? Ein von der Carnegie Mellon University entwickeltes und von der DARPA finanziertes Bordcomputersystem fuhr einen Van 2797 Meilen von einer 2849 Meilen langen Strecke von Washington D. C. nach San Diego, Kalifornien, mit einer Durchschnittsgeschwindigkeit von 63 MPH.

Die Zukunft wird Durchbrüche in der molekularen Medizin bringen. Die Nanotechnologie wird medizinische Siege auf subzellulärer Ebene liefern. Die Quantenpunkt-Diagnose wird, wenn sie perfektioniert ist, Krebszellen bei ihrem Auftreten identifizieren. Die Zukunft bringt individuelle Fernsehsender-Implantate für die Netzhaut des menschlichen Auges und eine Brücke, die den Ozean überspannt. In ferner Zukunft könnte es Aufzüge geben, die vom Äquator bis zu Stationen im Weltraum reichen, oder kybernetische Leitern, die von der Erde bis zum Mars reichen und aus nanotechnologischen KI-Materialien für den Transport von Mensch und Ware bestehen.

SCHLUSSFOLGERUNG

Der erste Computerprogrammierer, der die Kraft seines Gehirns nutzte, war ein blinder Mann namens Arnold Fast. Das menschliche Gehirn ist eine stets kompensierende, leistungsstarke Maschine. Es gibt jedoch keine Aufzeichnungen darüber, dass ein Mensch 100 % seiner Gehirnkapazität genutzt hat. Dennoch schlägt der Mensch vor, einem künstlichen Intelligenzmodell das Denken und Lernen beizubringen, bevor er nicht sein eigenes volles Potenzial gemeistert hat.

KI ist ein würdiger Bereich der Wissenschaft. Sie wird Durchbrüche liefern, die das Leben der Nationen neu gestalten. Vor sechzig Jahren hatte der Mensch den Mond noch nicht erreicht, Computer waren sperrig und brauchten oft einen ganzen Raum, um einen zu halten, DNA-Tests bei Verbrechen waren nicht aussagekräftig und Handys gab es nicht. Von 1900 bis 1950 hat sich die Welt verändert. Von 1950 bis 2010 änderte sich die Welt erneut mit einer Verdoppelung und Verdreifachung des technischen Fortschritts. Von 2010 bis 2060, wohin wird uns dieser immer weiter steigende Fortschritt führen? Die Möglichkeiten sind unbegrenzt und KI wird der prominente Nutznießer des Wandels sein.