Suche

Neuigkeiten


1st Sino-German-Symposium on "Knowledge Handling: Representation, Management and Personalized Application", 04. - 09. November. 2007 in Beijing

Projektverantwortung vor Ort:
Prof. Dr. Klaus Mainzer
Lehrstuhl für Philosophie und Wissenschaftstheorie
Geschäftsführender Direktor des Instituts für Interdisziplinäre Informatik
Universität Augsburg
e-mail: klaus.mainzer@phil.uni-augsburg.de
Beteiligte Wissenschaftler/Intern:
Prof. Dr. Elisabeth André
Institut für Informatik
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: andre@informatik.uni-augsburg.de
Prof. Dr. Fritz Böhle
Professor of Socioeconomy
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: fritz.boehle@phil.uni-augsburg.de
Prof. Dr. Christiane Eilders
Professor of Communication Studies
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: christiane.eilders@phil.uni-augsburg.de
Prof. Dr. Werner Kießling
Institut für Informatik
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: werner.kiessling@informatik.uni-augsburg.de
Prof. Dr. Gabi Reinmann
1. Professor of Media Education
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: gabi.reinmann@phil.uni-augsburg.de
Priv.-Doz. Dr. Tino Tomaschek
Center for Management Education and Knowledge Transfer
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: nino.tomaschek@zww.uni-augsburg.de
Prof. Dr. Bernd Wagner
Center for Management Education and Knowledge Transfer
Universität Augsburg
D-86159 Augsburg, Germany
E-mail: bernd.wagner@zww.uni-augsburg.de
 
Beteiligte Wissenschaftler/Kooperationen/Extern:
Prof. Dr. Dr. h.c. mult. Wilfried Bauer
Institut für Informatik
Technische Universität Münche
n Boltzmannstr. 3
D-85748 Garching bei München, Germany
E-mail: brauer@in.tum.de
Dr. Wolf-Tilo Balke
L3S Research Center
Universität Hannover
D-30539 Hannover, Germany
E-mail: balke@l3s.de
Prof. Dr. Wolfgang Effelsberg
Lehrstuhl für Praktische Informatik IV
Universität Mannheim
D- 68131 Mannheim, Germany
E-mail: effelsberg@informatik.uni-mannheim.de
Prof. Dr. Ruth Hagengruber
Department of Philosophy
University of Paderborn
Warburgerstr. 100
D-33098 Paderborn, Germany
E-mail: ruth.hagengruber@uni-paderborn.de
Prof. Dr. Wolfgang Nejdl
L3S Research Center
Universität Hannover
D-30539 Hannover, Germany
E-mail: nejdl@kbs.uni-hannover.de
Prof. Dr. Bernd Radig
Director of the Computer Science Institute IX
Computer Science Department, Institute IX
Technische Universität München
D-85748 München, Germany
E-mail: rading@in.tum.de
Prof. Dr. Roth-Berghofer
German Research Center 1 DFKI GmbH
Universität Kaiserslautern
Erwin-Schrödinger-Straße
(Bau 57)
D-67608 Kaiserslautern, Germany
E-mail: trb@dfki.uni-kl.de
Prof. Dr. Klaus Wehrle
Chair of Computer Science IV
Informatikzentrum
Ahornstr. 55
D-52062 Aachen, Germany
E-mail: klaus.wehrle@rwth-aachen.de; klaus.wehrle@cs.rwth-aachen.de
Klaus Mainzer
Institut für Interdisziplinäre Informatik
Universität Augsburg
Projektstart: 4. – 8. November 2007
Projektende: offen (Tagungen im 2-Jahresrhythmus)
Projektträger/Förderungsmittel: Chinesisch-Deutsches Zentrum (CDZ) für Wissenschaftsförderung (Beijing)
Zusammenfassung:
Das Chinesisch-Deutsche Zentrum (CDZ) für Wissenschaftsförderung, das hälftig von der DFG und der National Science Foundation of China getragen wird, hat den Antrag von Prof. Dr. Klaus Mainzer auf das „1st Sino-German Symposium on Knowledge Handling: Representation, Management and Personalized Application“ (4.-8. November 2007) in Beijing genehmigt. Das CDZ finanziert Konferenzen zu Schlüsselthemen der Wissenschaft, die durch repräsentative Vertreter aus China und Deutschland behandelt werden. Es geht in diesem Fall um personalisierte Informations- und Kommunikationssysteme, die auf den Nutzer in der Wissensgesellschaft zugeschnitten sind und von technischer, kognitions- und sozialwissenschaftlicher Seite beleuchtet werden sollen. Diesen Antrag hatte Prof. Dr. Klaus Mainzer als geschäftsführender Direktor des Instituts für Interdisziplinäre Informatik zusammen mit seinem ehemaligen chinesischen Doktoranden und jetzigen Professor an der Peking-University (Beijing) gestellt.
Von chinesischer Seite nehmen renommierte Fachvertreter (teilweise aus der Chinesischen Akademie der Wissenschaften) als Redner teil. Von den 16 namhaften deutschen Teilnehmern, die von angesehenen Forschungsinstitutionen kommen, wurden 8 Teilnehmer aus Augsburg vorgeschlagen, die den Medien-, Kommunikations- und Informatikbereich der Universität repräsentieren
Summary (English):
The Chinese-German Center (CDZ) for science foundation which is a common institution of the DFG (German Science Foundation) and the National Science Foundation of China accepted the proposal of Prof. Dr. Klaus Mainzer for the „1st Sino-German Symposium on Knowledge Handling: Representation, Management and Personalized Application“ (4.-8. November 2007) in Beijing. The CDZ supports conferences concerning key topics of science which should be discussed by experts and leading scientists of China and Germany. The main issue of the conference is the development of personalized information and communication systems tailored to the individual profile of a user and his/her preferences. The topic is interdisciplinarily considered from technical, cognitive, social, and economic points of view. The conference is organized by Prof. Dr. Klaus Mainzer as Director of the Institute of Interdisciplinary Informatics and his former coworker and Ph.D. student in Augsburg Prof. Dr. Jiyou Jia( Beijing University).
The Chinese participants are leadings experts in the fields of computer science, artificial intelligence, telecommunication, and e-learning. Some of them are members of the Chinese Academy of Science. 8 participants of the 16 German researchers belong to the University of Augsburg, representing its faculties and institutes of media, communication, information, and management science.

BewilligungsschreibenGZ446_Seite_11
BewilligungsschreibenGZ446_Seite_22
BewilligungsschreibenGZ446_Seite_33
BewilligungsschreibenGZ446_Seite_44
BewilligungsschreibenGZ446_Seite_55
BewilligungsschreibenGZ446_Seite_66

Informatik: Vom Wesen der Information und den digitalen Modellen

Manfred Broy
Institut für Informatik
Technische Universität München
Klaus Mainzer
Institut für Interdisziplinäre Informatik
Universität Augsburg
Dass die Informatik die prägende Wissenschaft für das Ende des vergangenen Jahrhunderts war und weiterhin sein wird, ist offensichtlich. Informatik ist in alle Bereiche unseres Lebens vorgedrungen, so dass die Vorstellung von der Informationsgesellschaft längst Wirklichkeit geworden ist.
In Anbetracht der Fülle der Innovationen und Ingenieurleistungen auf Basis hochkomplexer Informatiksysteme wird leicht übersehen, dass die Informatik eine Wissenschaft mit uralten Wurzeln ist, auch wenn sie lange Zeit nicht unter diesem Gesichtspunkt gesehen wurde. Der Umgang mit Information stand nämlich für uns Menschen schon immer im Zentrum unserer Auseinandersetzung mit Natur, Kultur und Gesellschaft. Andere Schlüsselbegriffe menschlicher Existenz wie Energie, Materie und Leben werden mit Disziplinen wie Physik, Chemie und Biologie verbunden. So wird Informatik als die Wissenschaft von der Information verstanden. Doch die Frage, was Information genau ist, welche Gesetzmäßigkeiten für sie gelten und ob es vergleichbare Theorien wie in der Physik gibt, ist immer noch nicht eindeutig beantwortet.
Dabei stellt die Rolle der Information im Hinblick auf andere Wissenschaften eine grundlagentheoretische Herausforderung dar. Die Physik untersucht bereits Quanteninformation, die zwischen Elementarteilchen ausgetauscht wird. Damit legt sie die Grundlagen für das Quantencomputing als einer neuen Zukunftstechnologie. Die Chemie entdeckt molekulare Informationsübertragungen, die in der Nanotechnologie zu neuartigen Rechnern führen könnten. Die Biologie entschlüsselt nicht nur genetische Information als Grundlage des Lebens, sondern beschäftigt sich mit zellulären und organischen Prozessen als Informationsverarbeitung. In der Medizin werden Krankheiten wie Krebs vermutlich erst dann besiegt, wenn fehlerhafte zelluläre Informationsverarbeitung verstanden ist. In Soziologie und Wirtschaftswisssenschaften rücken Informationsgüter und Kommunikation in das Zentrum der Informationsgesellschaft. Ist Information am Ende der fundamentale Schlüsselbegriff der Wissenschaften? Wird die Informatik damit zu einer Grundlagendisziplin für alle Wissenschaften, die sich mit Informationsverarbeitung beschäftigen? Jedenfalls wird sie mit diesen Disziplinen in Zukunft eng verbunden sein.
Daneben hat die Informatik ein zweites grundlagenwissenschaftliches Phänomen aufzuweisen. Sie beschäftigt sich nämlich mit der Verarbeitung, Speicherung, Übertragung und Darstellung von Information unter besonderer Berücksichtigung des Einsatzes digitaler informationsverarbeitender Maschinen. Daher entwickelt sie digitale Modelle der Wirklichkeit mit und für digitale Technik. Die informatischen Modelle unterscheiden sich von den klassischen Modellen der Mathematik, die den naturwissenschaftlichen Fortschritt bis weit in das 20. Jahrhundert ermöglichten. Seit Newtons Physik Ende des 17. Jahrhunderts werden Modelle der Wirklichkeit häufig mit Differentialgleichungen beschrieben, nach denen sich die Zustände eines dynamischen Systems mit der Zeit stetig verändern. In informatischen Systemen werden Veränderungen auf digitale Logik zurückgeführt, die nur zwei Wahrheitswerte unterscheidet und sie zwei digitalen Maschinenzuständen elektronischer Computer zuordnet. Hier baut die Informatik auf uralten Ansätzen aus dem Bereich der philosophischen und mathematischen Logik auf. Anders als diese Ansätze gewinnt das logische Modell jedoch unter dem Einfluss moderner Informatik einen operationellen Charakter und kann ausgeführt, simuliert und eingesetzt werden, um Daten zu speichern, zu verarbeiten und Vorgänge zu steuern.
Umso komplexer die Informatiksysteme werden, umso bedeutsamer wird die Modellbildung in der Informatik. Modellbildung heißt hier das Erfassen wesentlicher Zusammenhänge der Anwendungsgebiete eines Informatiksystems als Grundlage für die Konstruktion eines informationsverarbeitenden Systems. Ist in der Softwareentwicklung die Modellbildung noch Mittel zum Zweck, so verselbstständigt sich heute Modellbildung immer mehr in den unterschiedlichen wissenschaftlichen Disziplinen als ein Mittel der Analyse und des Verständnisses komplexer Systeme. Digitale Modelle zur qualitativen Darstellung von Prozessen, Hierarchien, Denkstrukturen und logischen Abhängigkeiten bestimmen immer stärker die Denkweisen aller Disziplinen.
Zeichnet sich damit ein Paradigmenwechsel in den Wissenschaften hin zu digitalen Modellen und Systemen ab? Dahinter steht jedenfalls die Einsicht, dass die Komplexität der Information in Natur und Gesellschaft nur mit informationsverarbeitenden Maschinen bewältigt werden kann und daher digitale Modelle überall notwendig werden. Vor diesem Hintergrund erscheint es an der Zeit, in einem interdisziplinären Arbeitstreffen die Rolle der Information in den unterschiedlichen Disziplinen, ihrer Wesenszüge und die Rolle der digitalen Modelle grundsätzlicher zu untersuchen.
Bemerkenswert ist zunächst, dass viele Grundbegriffe digitaler Modellierung der Wirklichkeit eine lange Tradition in Philosophie und Logik haben. So werden Hierarchien und Taxonomien von Klassen, Objekten, Eigenschaften und Relationen neuerdings in der Informatik wie in der Philosophie seit der Antike als Ontologien bezeichnet. Allerdings handelt es sich in der Informatik nicht um grundsätzliche Aussagen über die Welt des Seienden wie bei Aristoteles. Die wachsende Komplexität von Daten- und Informationsmengen erfordert vielmehr pragmatische Kategorisierungen, die sich nach Zielen und Zwecken von Entwicklern und Anwendern richten. Dabei sind besonders die Kriterien objektorientierter Programmierung zu erwähnen. Schluß- und Beweissysteme, die aus der logischen Tradition wohlbekannt sind, werden in der Informatik als Theorembeweiser eingesetzt, um die Korrekheit komplexer Computerprogramme zu prüfen. Viele Programmiersprachen (wie z.B. das weit verbreitete funktionale Programmieren) werden erst dann grundsätzlich verstanden, wenn die zugrunde liegenden formalen Kalküle der mathematischen Logik (z.B. -Kalkül) bekannt sind.
Neben Philosophie und Logik ist methodisch die Mathematik grundlegend für die Modellbildung. Modelle sind mathematisch Interpretationen von mengentheoretischen Strukturen, die axiomatisch definiert werden. So sind die natürlichen Zahlen ein Modell der Peano-Axiome und die analytische Geometrie ein Modell der Axiome Euklids, die seit der Antike bekannt sind. In der Informatik werden axiomatische (insbesondere algebraische) Strukturen pragmatisch für alle möglichen Anwendungsgebiete definiert. Dabei kann es sich um eine Bibliothek oder einen Betrieb ebenso handeln wie das Modul eines Automobils. Man spricht dann von (algebraischen) Spezifikationen, die im Software-Engineering in lauffähige Computerprogramme transformiert werden. Statt Systemstrukturen stehen häufig aber auch Prozesse, Phasenübergänge und Zustandsänderungen im Vordergrund. Dann bedient sich die Informatik Zustandsübergangs- und Sequenzdiagramme. Diese Ansätze lassen sich auch auf die Naturwissenschaften übertragen. In der Physik werden klassische Mechanik und Quantenmechanik als axiomatische Strukturen von Gleichungssystemen eingeführt, die über Modelle wie das Planetensystem oder das Atommodell verfügen. Anwendungsmodelle der Thermodynamik sind Flüssigkeits- und Aerodynamik, die durch Differential- und Integralgleichungen (z.B. Navier-Stokes-Gleichungen) bestimmt sind. Für Simulationen z.B. des Wetters auf Großrechenanlagen werden bereits digitale Modelle eingesetzt, um die gigantische Menge von Daten und Informationen zu bewältigen und Prognosen zu ermöglichen. Digitale Modelle des Lebens stehen in der Systembiologie und im Biocomputing im Zentrum öffentlichen Interesses. Lebensprozesse werden durch äußerst komplexe Informationsabläufe gesteuert, die nur durch systemtheoretische Modellierung erfaßt werden können. Damit ändert sich grundlagentheoretisch die Denk- und Arbeitsweise des Naturwissenschaftlers. Neben mathematische Theorie, Experiment, Messung und Beobachtung tritt die Systemanalyse und das Computerexperiment mit digitalen Modellen.
In den Sozial- und Wirtschaftswissenschaften, in denen keine Laborexperimente wie in den Naturwissenschaften möglich sind, gewinnen digitale Modelle zunehmend an Bedeutung. Beispiele sind Daten- und Entwurfsmuster für die Unternehmensmodellierung. Die Analyse der Organisationsstrukturen und Abläufe von Unternehmen deckt immer wiederkehrende Muster auf, die durch Ontologien, algebraische Spezifikationen, Zustandsübergangs- und Sequenzdiagramme beschrieben werden können. Auf der untersten Ebene befinden sich Bereichsontologien für Produkte, Services, Aktivitäten, Organisationen und Resourcen, darauf aufbauend abgeleitete Ontologien (z.B. Informationsresourcen, Ziele, Scheduling und Transport) und schließlich die eigentlichen Unternehmensontologien, die Konzepte aus den Bereichen Projekte, Unternehmen und Geschäftsprozesse beschreiben.
Bedenkenswert sind auch Modellierungen von Gesetzestexten in der Jurisprudenz. Das Bürgerliche Gesetzbuch der Bundesrepublik definiert in seinem Allgemeinen Teil einige Grundbegriffe und damit die Dinge, die für die nachfolgenden Gesetze als existent vorausgesetzt werden. So wird dort u.a. zwischen Personen und Sachen unterschieden etc.. Personen wiederum können natürliche oder juristische Personen sein. Rechtsvorschriften im allgemeinen Teil vererben sich auf untergeordnete Gebiete. Diese Taxonomien und ihre Verfahrensregeln zusammen mit den logischen Schlußsystemen der juristischen Falllösung und Urteilsbildung tragen deutlich methodische Züge von objektorientierten Ontologien, Spezifikationen und Sequenzdiagrammen, die in digitalen Modellen simulierbar sind. In der Informationsflut einer immer komplexer werdenden Rechtswelt könnten sie zur methodischen Transparenz und Reduktion von Komplexität beitragen.
Die interdisziplinären Beispiele von Mathematik, Technik- und Naturwissenschaften bis zu den Sozial-, Wirtschafts- und Rechtswissenschaften zeigen, daß digitale Modelle im Zentrum einer immer komplexer werdenden Informations- und Wissensgesellschaft stehen. Um sich nicht in den vielfältigen Anwendungen zu verzetteln, ist eine Grundlagendiskussion des Informationsbegriffs und digitaler Modelle notwendig. Es ist zugleich eine Rückbesinnung auf die Wurzeln der Informatik in Philosophie, Logik und Technik. Die angeführten Beispiele digitaler Modelle tragen deutlich die Züge einer Mathesis universalis, wie sie Leibniz Ende des 17. Jahrunderts mit seiner Theorie formaler Sprachen, Kalküle und Maschinen vortrug und damit zum Ahnherrn der Informatik wurde. Heute motivieren uns pragmatische Ziele der Informations- und Wissensbewältigung in einer immer komplexer werdenden Welt, um back to the roots das Wesentliche nicht aus den Augen zu verlieren.
Literaturhinweise: M. Broy/R. Steinbrüggen, Modellbildung in der Informatik, Springer 2004;
K. Mainzer, KI Künstliche Intelligenz. Grundlagen intelligenter Systeme, Wissenschaftliche Buchgesellschaft 2003.

DFG-Förderung für Informatik-PostDoc W.-T. Balke und sein Projekt "Kognitives Datenbank-Retrieval"

Datum der Mitteilung: 15.09.2002
Absender: Klaus P. Prem
Einrichtung: Universität Augsburg
Kategorie: überregional
Forschungsprojekte, Personalia
Informationstechnologie, Medien und Kommunikation

Nach zweijährigem Aufenthalt an der University of California at Berkeley will Balke in der zweiten Phase des Emmy Noether-Stipendiums an der Universität Augsburg eine eigene Forschergruppe aufbauen. -


Im November 2002 wird der Augsburger Informatiker Dr. Wolf-Tilo Balke für einen zweijährigen Forschungsaufenthalt an die University of California at Berkeley, San Francisco, wechseln. Interdisziplinäre Forschung zwischen Informatik und kognitiven Geisteswissenschaften bestimmt die erste Phase seines Emmy Noether-Stipendiums, das ihm die Deutsche Forschungsgemeinschaft (DFG) gewährt.


Ein Emmy Noether-Stipendium ermöglicht es Wolf-Tilo Balke, sein Projekt "Kognitives Datenbank-Retrieval" zwei Jahre an der University of California at Berkeley voranzubringen und dann in Augsburg eine eigene Nachwuchsgruppe zu leiten.
Gegenstand der Forschungen, die Balke mit DFG-Unterstützung in San Francisco an der University of California at Berkeley voranbringen will, ist "Kognitives Datenbank-Retrieval", ein Gebiet mit einer Vielzahl von Anwendungen besonders im Bereich Internet-Dienste und Suchmaschinen. In fachübergreifender Zusammenarbeit mit den kognitiven Disziplinen Psychologie, Soziologie und analytische Philosophie sollen personalisierbare Computersysteme in die Lage versetzt werden, effektive Benutzermodelle zu bilden. Nur auf Grundlage einer genauen Kenntnis der Absicht, der derzeitigen Situation und des Umfelds eines Benutzers kann ein Rechnersystem in die Lage versetzt werden, die gewünschte Interaktion zu antizipieren und geeignete Unterstützung anzubieten.

Der 31-jährige Wolf-Tilo Balke, der 1991 an der Universität Augsburg begonnen hat, Mathematik mit Nebenfach Informatik zu studieren, 1997 hier seinen Diplom-Abschluss gemacht hat, dann am Informatik-Lehrstuhl für Datenbanken und Informationssysteme bei Prof. Dr. Werner Kießling weiterstudierte und 2001 mit einer Arbeit über effiziente Algorithmen zur Auswertung komplexer Datenbankabfragen zum Dr. rer. nat. promovierte, ist jetzt als PostDoc in das Emmy Noether-Programm der Deutschen Forschungsgemeinschaft (DFG) aufgenommen worden. Nachdem er 2001 für seine summa cum laude-Dissertation bereits mit einem Wissenschaftspreis der Augsburger Universitätsstiftung ausgezeichnet wurde, ist die Verleihung des renommierten DFG-Stipendiums ein bedeutender Schritt zur Qualifikation für eine Universitätskarriere.

FORSCHUNG IM AUSLAND UND LEITUNG EINER EIGENEN NACHWUCHSGRUPPE

Das Emmy Noether-Programm der DFG möchte besonders qualifizierten jungen Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftlern einen Weg zu früher wissenschaftlicher Selbständigkeit eröffnen. Den in diesem Programm geförderten Wissenschaftlerinnen und Wissenschaftlern wird unmittelbar nach der Promotion die Möglichkeit gegeben, über einen zusammenhängenden Zeitraum von fünf Jahren zunächst durch einen zweijährigen Forschungsaufenthalt im Ausland und eine dann daran anschließende eigenverantwortliche Forschungstätigkeit im Inland - verbunden mit der Leitung einer eigenen Nachwuchsgruppe und qualifikationsspezifischen Lehraufgaben - die Voraussetzungen für eine Berufung als Hochschullehrer zu erlangen.

NACH SAN FRANCISCO WIEDER AUGSBURG

Für Balke besteht kaum ein Zweifel, dass er nach dem bevorstehenden zweijährigen Forschungsaufenthalt in San Francisco an die Universität Augsburg zurückkehren wird, um in der zweiten Stipendiumsphase hier eine Forschungsgruppe zur Forführung seines Projekts aufzubauen: "Der vor wenigen Jahren im Rahmen der High-Tech-Offensive Bayern begonnene massive Ausbau der Augsburger Informatik ist optimal gelaufen", sagt Balke, "und der Augsburger Lehrstuhl für Datenbanken und Informationssysteme ist mit seiner Forschung auf dem Gebiet der Benutzerpräferenzen seit längerem international wegbereitend, wo es um Personalisierungstechniken in der Systementwicklung und um die industrielle Anwendung geht." Hinzu komme, dass in Augsburg durch den engen Kontakt mit dem Lehrstuhl für Analytische Philosophie (Prof. Dr. Klaus Mainzer) vor Ort nicht nur beste Bedingungen für eine enge Abstimmung der Personalisierungstechniken auf den Menschen gegeben seien; es bestünden vielmehr generell sehr gute Voraussetzungen für einen weiteren Ausbau der interdisziplinären Kooperation zwischen Informatik und Geisteswissenschaften.

KONTAKT UND WEITERE INFORMATIONEN:

Dr. Wolf-Tilo Balke
Institut für Informatik
Universität Augsburg
86135 Augsburg
Telefon 0821/598-2162, Fax 0821/598-2274
e-mail: balke@informatik.uni-augsburg.de

BMBF
Stifterverband für die Deutsche Wissenschaft
Wissenschaft im Dialog

Originalartikel: http://idw-online.de/public/zeige_pm.html?pmid=52773






Zur Großansicht hier klicken.



M.I.T. Magazin für Innovation "Technology Review" (Dt. Ausgabe 2 2004):

Perspektive Künstliche Intelligenz

von Klaus Mainzer

Im Zeitalter der denkenden Maschinen


Die natürliche Evolution auf unserer Erde bringt seit hunderten Millionen Jahren Nervensysteme wachsender Komplexität hervor. Sie arbeiten nach den Mechanismen der Biochemie und verleihen ihren Trägerorganismen die Fähigkeiten zu selbstständiger Anpassung, zum Lernen und zu gezielter Veränderung der Umwelt. Doch die Gesetze der Evolution hätten auch ganz andere denkende Lebensformen zugelassen - und haben es anderswo im Universum vielleicht tatsächlich. So wird erkennbar, dass Menschen und Tiere nur Spezialfälle intelligenter Systeme sind, die sich auf dieser Erde mehr oder weniger zufällig unter verschiedenen Nebenbedingungen entwickelt haben. Die Beschränkung intelligenter Systeme etwa auf die Gattung der Primaten käme einem Rückfall in aristotelische Zeiten gleich, als man die Erde in den Mittelpunkt des Kosmos stellte und die Gesetze der Physik darauf beschränkte. Erst mit der kopernikanischen Wende wurde die Wissenschaft wahrhaft universell. Man formulierte Naturgesetze, die überall im Universum gelten sollten.
Nun steht eine kopernikanische Wende in der KI - Forschung an. Gesucht sind allgemeine Gesetze für intelligente Systeme, die unter unterschiedlichen Bedingungen technisch und biologisch realisierbar sind. Wir können nicht erwarten, solche Gesetze von heute auf morgen zu finden. Bis dahin müssen wir uns damit begnügen, den Intelligenzbegriff in Beispielen zu erfassen, bestenfalls in Teiltheorien von künstlichen und natürlichen Systemen. Aber die Suche lohnt sich Schon, bevor das Ziel erreicht ist. Denn die Befreiung vom anthropozentrischen Intelligenzbegriff erschließt technische Anwendungen, an die man früher nicht einmal denken konnte. Künstliche Intelligenz ist kein ferner Zukunftstraum. Still und heimlich beginnt sie, unsere Alltagswelt zu durchdringen.
Die traditionelle KI war auf den Menschen fixiert. An seiner Intelligenz maß sie die Leistungen von Computern. Warum diese eindimensionale Sicht? Schließlich simulieren die wenigsten, selbst bewegten Maschinen das Laufen auf Beinen, Flugzeuge schlagen nicht wie Vögel mit den Flügeln, und künstliche Sprache hat wenig mit den Vorgängen im menschlichen Kehlkopf zu tun. Der technische Durchbruch gelang erst, als man die Gesetze der Mechanik, Aerodynamik, Elektrodynamik oder der Akustik verstand. Automobile, Flugzeuge oder Stimmensynthesizer lösen ihre Aufgaben mit völlig anderen Mitteln als ihre natürlichen Entsprechungen.

Eine kurze Geschichte der künstlichen Intelligenz
Die KI-Forschung startete mit großen Zielen. Als im Jahr 1956 führende Computerwissenschaftler, Psychologen, Linguisten und Philosophen auf der ersten großen Konferenz über Maschinenintelligenz am Dartmouth College den Begriff "Artificial Intelligence" prägten, glaubten sie einerseits, mit dem Computer endlich ein präzises Modell des menschlichen Denkens gefunden zu haben; andererseits hoffte man, mit Elektronengehirnen bald den Fähigkeiten des biologischen Vorbilds gleichkommen zu können. An den Optimismus der Pionierjahre erinnern noch die
Namen der damaligen Projekte, etwa des "General Problem Solver"(GPS) von Allen Newell und Herbert Simon, eines universellen Computerprogramms zur Lösung unterschiedlichster Planungsprobleme. Doch das GPS-Projekt, so intuitiv einleuchtend sein Ansatz auch war, scheiterte an der unüberschaubaren Zahl der möglichen Pläne.
Das anerkannte Kriterium für Intelligenz war damals der Turing-Test: Man erklärte das Verhalten eines Computers für intelligent, wenn es von der entsprechenden Leistung eines Menschen nicht zu unterscheiden war. Inzwischen rechnen Computer zweifellos schneller und genauer als ihre Erbauer und spielen besser Schach - mit dem Fehlermachen hingegen tun sich die Rechenwerke schwer. Denn Menschen irren, täuschen, sind ungenau und geben vage Antworten. Das ist nicht unbedingt ein Mangel, sondern hilft ihnen mitunter, sich in unklaren Situationen zurechtzufinden. Um den Turing-Test zu bestehen, müsste eine Maschine auch solche Reaktionen realisieren.
Auf Skepsis stieß auch der Versuch der klassischen KI, natürlich-sprachliche Kommunikation mit regelbasierten Computerprogrammen nachzuahmen. 1965 stellte Joseph Weizenbaum das Programm ELIZA vor, das den Dialog zwischen einem Psychiater und einer Patientin simulierte. Die Öffentlichkeit war verblüfft: Das Programm schien sich geradezu in die Situation der Patientin einzufühlen. Manche Zeitgenossen suchten sogar Rat und Trost bei ELIZA, obwohl sie die algorithmische Struktur des Programms kannten. ELIZA tut nämlich nichts anderes, als syntaktische Symbollisten in der Programmiersprache LISP abzuleiten; die Regeln sind so gewählt, dass sie umgangssprachlichen Unterhaltungsgewohnheiten entsprechen. Auf bestimmte Schlüsselworte und Satzmuster reagiert ELIZA mit passenden Umstellungen und Einsetzungen. Solch ein simples Symbolverarbeitungssystem könne unmöglich intelligent sein, befand der Philosoph John Searle.
Der nächste Anlauf zum Denkautomaten begann bescheidener. Mitte der 70er Jahre versprach eine neue Generation von KI-Programmen erste praktische Anwendungen: so genannte wissensbasierte Expertensysteme. Das Ziel war, abgegrenztes und überschaubares Fachwissen menschlicher Experten, etwa von Ingenieuren und Ärzten, für den tagtäglichen Gebrauch zur Verfügung zu stellen. Dazu speichern Expertensysteme das Wissen über ein spezielles Gebiet und ziehen in konkreten Situationen automatisch Schlussfolgerungen, um Lösungen oder Diagnosen zu liefern. In dem ehrgeizigen Projekt CYC (ausgesprochen wie englisch "psyche") wird seit 1984 versucht, das gesamte menschliche Alltagswissen in einem einzigen wissensbasierten System zu erfassen. Als größte Schwierigkeit für CYC und seine Verwandten erwies sich indes gerade jenes Wissen, das uns Menschen nicht der Rede wert ist: Wie soll man die spezielle Wissensbasis des Systems mit dem allgemeinen Hintergrundwissen und den unausgesprochenen Erfahrungen und Daumenregeln verbinden, die Entscheidungen menschlicher Experten wesentlich beeinflussen? Intuitives Know-how, etwa über das richtige Gasgeben und Kuppeln im Auto oder das Ballgefühl beim Fußball, lässt sich kaum durch formale Regeln programmieren.

Evolution als Vorbild der KI
Schon die klassische KI orientierte sich an den Erfolgsrezepten der Natur, die ohne symbolische Wissensrepräsentation auskommen. Eine sich selbst reproduzierende Maschine galt lange Zeit als unmöglich, bis John von Neumann Ende der 5Oer Jahre mathematisch das Gegenteil bewies. Von Neumann zeigte, dass es für die Selbstreproduktion nicht auf die Art der materiellen Bausteine ankommt, sondern auf eine funktionale Struktur, die eine vollständige Beschreibung ihrer selbst enthält und diese Information zur Schaffung neuer Kopien verwendet.
Die Analogie mit dem Zellverband eines Organismus wird deutlich in von Neumanns Begriff des zellulären Automaten: Man denke sich ein unbegrenztes Schachbrett, auf dem jedes Feld für eine Zelle steht. Jede dieser Zellen lässt sich formal als Automat mit endlich vielen Zuständen beschreiben. Jede Zelle verändert ihren Zustand abhängig von den Zuständen ihrer Nachbarn. Von Neumann wies nach, dass ein sich selbst reproduzierender Automat die Leistungsfähigkeit einer universellen Turing-Maschine haben muss, also prinzipiell jede denkbare Berechnung durchführen kann. In der präbiologischen Evolution hatten die ersten sich selbst reproduzierenden Makromoleküle und Mikroorganismen wohl kaum den Komplexitätsgrad eines universellen Computers. Daher entwickelte Christopher Langton 1986 einfachere zelluläre Automaten ohne die Fähigkeit universeller Berechenbarkeit, die sich in nachfolgenden Generationen wie Organismen spontan reproduzieren können. Die Forschungsrichtung des "Künstlichen Lebens" (Artificial Life) war geboren.
Wesentliche Aspekte der Evolution lassen sich bereits mit einfachen zellulären Automaten nachspielen. Die Befehle des Automaten werden in einer Binärzahl codiert, die man als Genotyp eines virtuellen Organismus auffassen kann. Der makroskopische Phänotyp solcher virtuellen Organismen zeigt sich in den zellulären Mustern, die bei unterschiedlichen Anfangsbedingungen entstehen. Ein so genannter genetischer Algorithmus steuert die Entwicklung der künstlichen Population: Zufälliger Austausch von 0 und 1 in der Codenummer entspricht einer Mutation, zudem werden Teilstränge verschiedener Codenummern neu kombiniert. In jeder Generation selektiert der genetische Algorithmus die erzeugten Automaten danach, wie gut sie bestimmte Probleme lösen.
Aufgrund von Zufallsmechanismen schaffen genetische Algorithmen Neues und optimieren es. In der Technik haben sie sich bereits bewährt, etwa um Computerprogramme für die Steuerung von Roboterarmen oder Produktionsstraßen zu finden - also gerade für jene Art von performativem Wissen, die so schwierig formal zu fassen ist. Das System wird nicht wie in einem Expertensystem explizit programmiert, sondern in einem evolutionären Prozess erzeugt.

Gehirn als Vorbild der KI
Zelluläre Automaten und genetische Algorithmen lassen sich auf herkömmlichen Computern simulieren, Das gilt im Prinzip auch für die Lernalgorithmen des Gehirns. Der Architektur des Gehirns besser angepasst sind Modelle neuronaler Netze, die ähnlich wie zelluläre Automaten aus komplexen Systemen wechselwirkender Zellen bestehen - in diesem Fall "Neuronen" genannt. Neuronen erhalten Eingangssignale von anderen Neuronen, mit denen sie durch Synapsen verbunden sind. Im Gehirn lösen Botenstoffe diese Signale aus, die in den Synapsen unterschiedlich stark ausgeschüttet werden. Entsprechend werden die Signale in Modellen neuronaler Netze durch Zahlenwerte gewichtet. Wenn die Summe der eingehenden Signale den Schwellenwert eines Neurons überschreitet, dann feuert das Neuron selbst ein Signal, das wiederum als Input eines anderen Neurons dienen kann. Wie bei zellulären Automaten verändern die Zellen nach lokalen Regeln ihre binären Mikrozustände ("Feuern" oder "Nichtfeuern") und bilden makroskopische Verschaltungsmuster.
Diese Verschaltungsmuster sind die neuronale Grundlage aller motorischen, perzeptiven und kognitiver Leistungen des Gehirns: Nicht das einzelne Neuron denkt und fühlt, sondern der Zellverbund. Dabei bildet das Muster der feuernden und nichtfeuernden Neuronen im Gehirn nur die Maschinen- oder Gehirnsprache der menschlichen Kognition. Damit daraus ein Gefühl, ein Gedanke oder eine Vorstellung wird, bedarf es noch einiger Transformationen, die den Compilerprogrammen für höhere Programmiersprachen ähneln.

Lernalgorithmen neuronaler Netze können nicht nur Muster wiedererkennen, sondern durch Vergleiche selbstständig neue Zusammenhänge entdecken. So kann sich das System auf die immer neuen Situationen einer sich wandelnden Umwelt einstellen, die ein Programmierer unmöglich deklarativ mit Regeln in symbolischer Sprache berücksichtigen kann. Die starr regelbasierten Programme des so genannten Hard Computing eignen sich besonders zur Programmierung von Rechenverfahren und der Simulation logischen Denkens, Planens und Entscheidens. Dagegen zielt das Soft Computing auf die "präintelligenten" Fähigkeiten des flexiblen und fehlertoleranten Wahrnehmens und Reagierens, die der Mensch mit seinem Sinnes- und Bewegungsapparat realisiert - wobei die technischen Lösungen keineswegs die Natur imitieren müssen. Die wichtigsten Techniken des Soft Computing sind neuronale Netze, Lernalgorithmen und evolutionäre Algorithmen, die präintelligente und prozedurale Aufgaben ohne symbolische Regelrepräsentation bewältigen. Ein weiteres Beispiel für fehlertolerante Informationsverarbeitung ist die Fuzzy Logic.
Bis in die 90er Jahre galten neuronale Netze und zelluläre Automaten nur als Modelle, die letztlich auf die Simulation mit konventionellen Computern angewiesen sind. Die rasante technische Entwicklung von Mikroprozessoren und Sensoren machte es jedoch möglich, sie tatsächlich zu bauen. Offenbar arbeiten menschliche und tierische Gehirne nicht nur auf der digitalen Basis feuernder und nichtfeuernder Neuronen, sondern auch mit analoger Signalverarbeitung von Sensorzellen. Sinnesorgane nehmen stetige Tast-, Wärme-, Schall- oder Lichtreize wahr, die technisch analoger Signalverarbeitung mit Sensoren entsprechen. In manchen Anwendungen übertreffen analoge zelluläre Computer, auf Chipgröße miniaturisiert, die Leistung herkömmlicher Rechner - etwa in der Bildverarbeitung.

KI in der vernetzten Welt
In der Kulturgeschichte haben sich immer raffiniertere Kommunikationssysteme herausgebildet. Nach Trommeln, Rauchzeichen, Morsen und Telefonnetzen kommuniziert der Mensch heute in Computernetzen wie dem Internet. Tatsäch1ich ähnelt das Internet einem Nervennetz. Es ist ein komplexes, selbst organisiertes Informationssystem - dem inzwischen die Überlastung droht: Die Informationsflut wirkt wie eine Reizüberflutung durch Geräusche, Bilder und andere Sinnesdaten. Daher wird das Internet als Zentralnervensystem der Informationsgesellschaft intelligente Verfahren zur Informationsfilterung und Informationsbewältigung brauchen, ähnlich wie biologische Gehirne. Um die Schnittstelle mit dem Internet möglichst nutzerfreundlich zu gestalten, sollten diese Verfahren der menschlichen Kommunikationsfähigkeit möglichst nahe kommen. Besonders eignen sich deshalb fehlertolerante und flexible Lern- und Selektionsmethoden, wie sie das Soft Computing bereitstellt.
Ursprünglich war das Internet nichts als ein gigantisches Archiv von Dokumenten, die nur vom menschlichen Benutzer gelesen und verstanden wurden. Übliche Computer filtern diese Dokumente für uns, ohne ihren Inhalt zu verstehen. Wie könnte man Netzdokumente mit Bedeutungen versehen, die nicht nur von Menschen, sondern auch von Computern verstanden werden? Wie wird das Internet intelligent? Tim Berners-Lee, der Miterfinder des World Wide Web, will dieses Ziel ohne aufwendige KI-Verfahren erreichen: Computer sollen die Bedeutung semantischer Daten erkennen, indem sie über Hyperlinks die Definitionen von Kennwörtern und die zu ihrem Kontext gehörenden logischen Schluss- und Verwendungsregeln nachschlagen. Durch solche semantischen Netze können sie sich den Inhalt buchstäblich selbst erschließen. Die semantische Tiefe, bis zu der ein Computer Bedeutungen versteht, hängt vom Umfang der ergänzten Ontologien ab - ganz wie beim Hintergrundwissen eines Menschen. Doch selbst mit solchen semantischen Netzen kann kein einzelner menschlicher Benutzer die Informationsflut in komplexen Kommunikationssystemen wie dem Internet bewältigen. Der nächste Schritt sind so genannte Agenten: Computerprogramme, die in den Diensten ihrer Benutzer autonom im Netz agieren: Ein Multi-Agenten-System besteht aus einem Verbund lernfähiger Programme, die sich selbstständig den Wünschen und Zielen eines menschlichen Nutzers anpassen. Schließlich wären ganze Populationen von mobilen Agenten denkbar, die sich in einer virtuellen Evolution im Computernetz entwickeln. So können mobile Suchagenten ihre Fitness verbessern, indem sie an Beispieldokumenten trainieren, um dann zur Auffindung ähnlicher Artikel ins Netz freigelassen zu werden. Agenten, die häufig mit irrelevantem Informationsmaterial aus dem Netz wiederkehren, werden ausgesondert. Erfolgreiche Agenten vermehren sich durch Mutationen und Kombinationen ihrer Merkmale. Nach einigen Generationen können solche KL-Agenten (künstliches Leben) dann genau auf die Suchanfragen eines Nutzers eingehen.
Künstliche Intelligenz steckt also weniger in einem einzigen Computerprogramm als in Verbunden von Programmen. Ähnliches gilt mittlerweile auch für die vernetzte Infrastruktur von Endgeräten, die eine intelligente Nutzerumgebung schaffen. Die Intelligenz entsteht dann durch Interaktion dieser Umgebung mit dem Menschen. Mittlerweile verbreiten sich so genannte Smart Devices mit Leistungen unterhalb des PC und geringem Energieverbrauch in intelligenten Umgebungen unseres Alltags. Smart Devices sind winzige Prozessoren, die etwa in Weckern, Mikrowellenöfen, Fernsehgeräten, Stereoanlagen oder Kinderspielzeug eingebaut sind. Über Sensoren können sie untereinander oder mit uns telematisch kommunizieren. Sie benötigen kein Computer-Interface mit Maus und Keyboard, sondern nur eine geeignete Benutzeroberfläche, die auf den Zweck des Gegenstands zugeschnitten ist.
Eine wichtige Aufgabe der verteilten künstlichen Intelligenz wird es sein, Sprach- und Sprechfunktionen in Arbeits-, Lern- und Lebenswelten als benutzerfreundliche und unaufdringliche Dienstleistung einzubetten. Ein erster Prototyp dafür ist im interdisziplinären Forschungsprojekt VERBMOBIL des Deutschen Forschungszentrums für Künstliche Intelligenz entstanden. Das VERBMOBIL-System kann gesprochene Sprache erkennen und analysieren, um die Eingabe in eine Fremdsprache zu übersetzen, eine Antwort zu erzeugen und auszusprechen. Es soll künftig über einen Taschencomputer Dialoge führen können, die etwa bei einer Reiseplanung, Hotelreservierung oder Stadtführung oder in Videokonferenzen von Geschäftsleuten entstehen, oder von Maschine zu Maschine mit Sprachsystemen von Autos, Robotern oder ganzen Wohn- und Arbeitsumgebungen kommunizieren.
In der Robotik bietet sich für die verteilte künstliche Intelligenz eine weitere biologische Analogie an: die Schwarmintelligenz einfacher Tierorganismen. An die Stelle der alten Vorstellung von menschenähnlichen Robotern, die kognitive Wissensrepräsentationen auf hohem Niveau von Programmiersprachen entschlüsseln müssen, treten einfache Maschinen, die ohne starre Programmabläufe interagieren. Intelligente Problemlösungen solcher Roboterpopulationen, sind Kollektivleistungen. Statt Termitenbögen zu bauen oder Ameisenstraßen zu bilden können Maschinenschwärme in der Industrieproduktion, der Weltraumforschung oder als Gabelstapler in Lagerhallen zum Einsatz kommen.

Das Auto hilft sich selbst
Die Autohersteller werden in Zukunft mit der zunehmenden Komplexität ihrer elektronischen Systeme zu kämpfen haben. Wer die elektronischen Kabelsysteme in Automobilen von ihren Anfängen bis heute betrachtet, erkennt die frappierende Ähnlichkeit mit der Entwicklung der Nervensysteme im Laufe der Evolution. Doch im Unterschied zur Biologie sind übliche elektronische Systeme starr und unflexibel. Kleinste Fehler können das gesamte System zusammenbrechen lassen. Mehr Robustheit verspricht eine evolutionäre Architektur: Das Nervensystem eines Automobils wie im natürlichen Vorbild in viele autonome Einheiten zerlegt, die sich in einem Selbstorganisationsprozess drahtlos zu Funktionsgruppen zusammenschließen, um kollektiv intelligente Leistungen zu realisieren. Ein Projekt von DaimlerChrysler erprobt die Selbstkonfiguration, Selbstadaption, Selbstdiagnose und Selbstreparatur von evolutionären Elektronikarchitekturen.

Zukunftsperspektiven der KI
Eine abschließende Theorie intelligenter Systeme steht bis heute aus. Das ist aber keineswegs eine Ausnahme in den zeitgenössischen Wissenschaften. Auch in der Physik ist eine vereinigte Theorie der Naturkräfte höchstens in Umrissen erkennbar. Dennoch arbeiten Hochenergiephysiker, Kosmologen und Materialforscher sehr erfolgreich mit Teilen der unfertigen Theorie. Diese Situation entspricht dem Stand der interdisziplinären Erforschung und Entwicklung der künstlichen Intelligenz: Wir wissen, dass Intelligenz etwas mit Lernfähigkeit, Anpassung, Abstraktionsvermögen und schöpferischem Denken zu tun hat, aber auch mit präintelligenten Fähigkeiten des Körpers und sozialer Interaktion. Um alle diese Facetten in einem Ansatz zusammenzufassen, bedarf es der fachübergreifenden Zusammenarbeit von Computer-, Natur-, Sozial- und Geisteswissenschaftlern. Denn wir brauchen die technischen Fähigkeiten der KI, um eine immer komplexere Welt im Griff zu behalten.



Informatik-Kolloquium Universität Koblenz 11.02.2004:
Prof. Dr. Klaus Mainzer (Universität Augsburg)

„Grundlagen und Perspektiven intelligenter Systeme“

http://www.uni-koblenz.de/ifi/kolloquium/
http://www.uni-koblenz.de/ifi/kolloquium/mainzer.html
http://www.uni-koblenz.de/index_extern.htm



Organic-Computing-Philosophie Workshop 17.-20.2.2004 (Kloster Irsee)

mit Erhardt Barth (Universität Lübeck), Michael Beigl, Peter Hofmann (DaimlerChrysler AG), Rudolf Kober (Siemens AG), Jan Kim (Universität Lübeck), Paul Lukowicz (ETH Zürich), Klaus Mainzer (Universität Augsburg), Rudolfo Mann Pelz (Bosch AG), Christian Müller-Schloer (Universität Hannover), Clemens Puppe (Universität Karlsruhe), Burhardt Schallenberger (Siemens AG), Hartmut Schmeck (Universität Karlsruhe), Theo Ungerer (Universität Augsburg), Klaus Waldschmidt (Universität Hannover), Lars Wolf, Rolf Wuertz (Universität Bochum)



Tagung „Künstliche Intelligenz und menschliche Person“ an der Evangelische Akademie Arnoldshain 5.-7- März 2004

mit Einführungsvortrag von Prof. Dr. Klaus Mainzer (Institut für Interdisziplinäre Informatik/ Universität Augsburg):
„Künstliche Intelligenz – Eine Problemskizze“ (05.03.2004)






Zur Großansicht auf die Bilder klicken.



Internationales Begegnungs- und Forschungszentrum für Informatik/ Schloß Dagstuhl: Seminar 27.06.2004-02.07.2004

„Preferences: Specification, Inference, Applications“

u.a. mit W.-T. Balke (Dept. of Computer Sciences, University of California at Berkeley, USA), G. Bosi (Dept of Applied Mathematics, University of Trieste, Italy), R. Brafman (Dept. of Computer Science, Ben-Gurion University, Israel), J. Chomicki (Dept. of Computer Science and Engineering, Univ. at Buffalo, USA), W. Kießling (Institute of Informatics, University of Augsburg, Germany), K. Mainzer (Institute of Interdisciplinary Informatics, University of Augsburg, Germany).

„Preference“ is a fundamental notion in those areas of computer science, applied mathematics and philosophy that deal with decisions and choice. In Mathematical Decision Theory, preferences (often expressed as utilities) are used to model people’s economic behavior. In Artificial Intelligence, preferences help to capture agent’s goals. In Databases, prefereces help in reducing the amount of information returned in response to user queries. In Philosophy, preferences are used to reason about values, desires, and duties.

Surprisingly, there has been so far very little interaction between those areas. The difference in foci, as well as variations in terminology, make the results obtained in one area difficult to use in another. This Dagstuhl seminar, which gathers researchers in many areas involving preferences (databases, AI, Mathematics, decision science, philosophy) is supposed to stimulate the more specialized research in those areas and identify possible directions for collaboration.


International Symposium on Data Mining and Statistics, November 19-22, 2000
Weitere Infos unter: http://www1.math.uni-augsburg.de/symposium


Informationsethik-workshop 2001

Weitere Infos unter: http://www.capurro.de/augsburg.htm



Auf dem High-Tech-Tag Bayern am 31. März 2001 präsentiert das Institut für Interdisziplinäre Informatik mit dem Videolabor der Philosophischen Fakultät I die neuen Studiengänge zum Thema
'MEDIEN, MULTIMEDIA, KOMMUNIKATION'
im Videolabor, Gebäude N1, Eingang 18, 1.Stock
Raum 2157 ab 12.30

Koordinator: Prof. Dr. K. Mainzer
geschaftsführender Direktor des I3


B.A./M.A. -Studiengang: "Medien und Kommunikation"

a) B.A. - Studienordnun g / Prüfungsordnung
b) M.A. - Studienordnung / Prüfungsordnung


Informatik, Medien und Kommunikation

Tage der Forschung: Dienstag, der 6. November 2001 14-17 Uhr
Hörsaal 1002 (Hörsaalgebäude der Physik)

30.01.2004