Semantisches Web, Ontologie und künstliche Intelligenz – wo geht die Reise hin?

Tim Berners Lee - Erfinder des Internets

Das Schlagwort Web 3.0 kommt dem geneigten Internetsurfer täglich vor Augen und mit diesem Wort erleben Begriffe wie Semantik, Ontologie und AI (artificial intelligence = künstliche Intelligenz) einen massive Aufschwung. Doch die wenigsten wissen worum es wirklich geht, und warum sie dauernd mit diesen wissenschaftlichen Themen, die so gar nicht ins angenehm soziale Netzleben passen wollen bombardiert werden.

Teil 1 von 2

Wie so oft, wenn viel über etwas geredet wird, dann muss es etwas ganz grosses sein. Was genau wissen dann die wenigsten. String Theorie ist so ein Beispiel, irgendwas mit Weltformel die sie jetzt gefunden haben, so kleine zappelnde Fäden aus denen alles besteht. So in etwa – und das es eine unbeweisbare Theorie ist, vergessen die Leute auch schnell.

Das liegt daran, dass Wissenschaftler oft grosse Probleme haben uns Normalen zu erklären, was sie tun und denken (vgl. den verzweifelten Versuch „Schroedingers Katze“). Da ich kein Wissenschaftler bin, versuche ich es hier mal auf eine verständlichere Weise zu erklären.

Grundlage und Ist-Zustand des WWW, Web 1.0 und Web 2.0
Tim Berners Lee sagte, das WWW aufzusetzen sei einfach gewesen, denn die Technologien wie TCP/IP waren alle schon da, es brauchte noch die Seitenbeschreibungssprache HTML und damit auch die Möglichkeit der Verlinkung zwischen Seiten. Damit das WWW ein Ort würde, an dem sich Menschen treffen, austauschen und Wissen weitergeben können. Wenn man das Web heute betrachtet, kann man sagen, seine Vision hat sich verwirklicht. Ein Problem, dass Berners Lee schon sehr früh erkannte, ist aber geblieben – und gewinnt mit jedem Tag wachsenden Inhalts an immenser Bedeutung.

Suchen und Finden
Da ein einfacher Link keinerlei Informationen enthält, was sich für ein Inhalt dahinter vebirgt, kam man auf die Idee der Metatags. Schlüsselbegriffe, die einer Suchmaschine ermöglichten zu vergleichen, ob der Link mit dem Tag „fischen“ auch auf der Inhaltsseite einen Text enthielt, in dem der Begriff vorkam. Wenn dem so war, dann wurde dieser Link bei der Suche nach dem Begriff fischen angezeigt. Was jedem Kind klar ist: fischen ist eine Tätigkeit am Wasser, im Zürichsee „angelt“ der Opa den leckeren Egli und im Urlaub schaut es gern den Fischern beim Netze flicken zu. Die Suchmaschine hat von all diesen Zusammenhängen keine Ahnung. Sollte die verlinkte Seite nur über Angelsport sprechen, so wird die Suchmaschine den Link mit „fischen“ nicht auflisten.

Was wir uns wünschen und Wissenschaftler versuchen
Wenn Sie einen Freund in Los Angeles fragen: „War Paris Hilton mal in Johnny Depp´s Bar Viper Room in Los Angeles?“, dann gibt es drei Antworten: Ja, Nein oder weiss ich nicht.  Geben Sie die o.a. Frage mal spasseshalber bei Google ein, auch wenn Sie sich nicht für schlüpferlose B-Promis interessieren. Sie bekommen tausende von Antworten, über LA, Johnny Depp, Viper Room, Bars, Paris, das Hilton in Paris – nur die einfache Antwort auf Ihre Frage bekommen sie nicht. Weil Computer dumm sind und Suchmaschinen im Herstellen von Sinnzusammenhängen von einem Zweijährigen im Schlaf geschlagen werden.

Nun ist es an der Zeit dies zu ändern, und dazu braucht es mehr als die Ingenieure und Softwareentwickler die bisher am WWW gearbeitet haben. Um Suchmaschinen zu vernünftigen Antworten zu bewegen, wie wir sie natürlicherweise Erwarten, gibt es drei Grundpfeiler, auf denen sich das semantische Web 3.0 aufbaut.

1. Logik: Ein System von Regeln, auf deren Basis Computer Rückschlüsse ziehen können
2. Ontologie: bedeutet einfach gesagt die Beschreibung von Objekten die in einem Umfeld existieren (Angeln und Fische existieren im selben Umfeld)
3. Berechenbarkeit: Damit Logik und Ontologie für einen Computer in Kontext gesetzt werden können, müssen sie berechbar sein, was sie von menschlich möglichen Ideen, wie die der Philosophie, abgrenzt. Es muss einen nachvollziehbaren Sinn ergeben. (Agnostik, vielleicht gibts Gott, vielleicht nicht, und wenn dann machts keinen Unterschied für uns – wäre z.B. eine logisch nicht berechenbare Aussage.)

Wenn diese Grundpfeiler in allem Content entsprechend impementiert sind, dann werden wir endlich bekommen was wir wollen. Inhalte die in den richtigen Kontext gesetzt sind, in sinnvolle Umfelder, die relevantes Wissen von trivialem Blödsinn unterscheiden. Dann werden Suchmaschinen in der Lage sein, uns schnell die Antworten zu geben die wir suchen.

Folgendes Bild stellt dar, wie die Zukunft in der Verbindung zwischen Technologie, Inhalt und Inhaltserstellern aussehen könnte – und beschreibt wie sich sinnvolle Verbindungen mit Informationen mit den Verbindungen zwischen Inhalten und Erstellern entwickeln.

Entwicklung des WWW, Quelle: Radar Networks

Da Wissenschaftler mit dem vorgenannten noch nicht zufrieden sind (und ich auch nicht), setzt man auf einen weiteren Hoffnungsträger – die Entwicklung der künstlichen Intelligenz und das Prinzip der Singularität. Darüber schreibe ich im zweitem Teil dieses Artikels.

Was haltet ihr von den ganzen Buzzwords – ein nicht zu bewältigender Versuch Ordnung ins Chaos zu bringen oder eine echte Chance? Kennt jemand von Euch schon wirklich gute Literatur zum Thema, die nicht den Zusatz „Dieser Artikel ist noch nicht erschienen“ bei Amazon hat? Und was sind Eure Prognosen, wann wir mit „schlauen Rechnern“ rechnen können?

Weiterempfehlen

image description

Kommentieren

19 Kommentare

image description
  1. Cornel | 19.05.2009 09:23

    Im Bewusstsein, dass wir auch noch nicht ganz beim Ziel angekommen sind, können wir mit http://www.jobsucher.ch eine semantische Job-Suchmaschine anbieten, die überdurchschnittliche Recall- und Precision-Werte bietet. Darunter liegt eine Arbeitsmarkt-Ontologie, in die wir ca. 12 Menschenjahre investiert haben. Wer „CEO“ sucht, bekommt auch „Geschäftsführer“, „Managing Partner“, nicht aber „CEO-Assistent“ als Resultat.

  2. Sam Steiner | 15.05.2009 15:01

    Guter Artikel (kam erst jetzt dazu, ihn zu lesen). Das Beispiel „Angeln und Fischen“ (engl: Angels & Demons?) ist sehr simpel und einleuchtend – ich frage mich dann aber, wie komplex wird das Ganze in echt.

    Ich treffe jeden Tag tausende von Entscheidungen, die mein „Umfeld“ betreffen, gehe neue Verbindungen ein (zB gestern mit einer Tollwut-Impfung) – dies in elekronischen Systemen nur ansatzweise abzubilden wird sehr „interessant“.

    Facebook ist für mich eine Art Vorläufer von „künstlicher (aber eben echter) Intelligenz“. Die 10’000 Servers stellen nur die Plattform – die „Weisheit der Masse“ liefert mir „Resultate“, die Google eben nicht beantworten könnte: „war Peter Muster mal in John Mustard’s Bar Class Room in Wetzikon?“. Solche Antworten kriege ich momentan erst für meine kleine Sphäre von Buddies – Facebook zeigt aber tagtäglich, was Skalierbarkeit bedeutet.

  3. Dirk Worring-Ramstoeck | 13.05.2009 16:34

    @Carolin: Maschinen und Menschen bespreche ich dann direkter im Teil 2.
    Der folgt übrigens am Dienstag 19.05.2009 hier auf diesem Kanal.

  4. Carolin | 13.05.2009 16:29

    ich mag deine art, diesem teilweise sehr technischen und trockenen thema durch witz und ironie die menschlichkeit wieder zu geben. und genau darum geht es ja letztendlich: die vermenschlichung von maschinen und technologie.

    wann kommt der zweite teil?

  5. Philipp Sauber | 12.05.2009 22:04

    Super Post!
    Ich gehe mit Yves einig, dass 2010 kaum was von all dem zu sehen sein wird. Das Thema ist im Gegensatz zu Web 2.0 technisch extrem komplex und darum wird’s noch ein paar Jahre dauern, bis wir bei Google und Co eine semantische Suche antreffen.

    Zudem ist hierzulande das Web 2.0 noch für die meisten Web-User Neuland und für die meisten Firmen ein Gebiet, auf welches sie sich noch nicht gestürzt haben. Ich denke in dem Bereich gibt’s noch einiges an Aufholbedarf.

    Freu mich auch auf den 2. Teil!

  6. roman | 12.05.2009 22:02

    Nice talk on Ted von Tim Berner Lee und seiner Vision:

    http://www.ted.com/index.php/talks/tim_berners_lee_on_the_next_web.html

  7. Dirk Worring-Ramstoeck | 12.05.2009 17:39

    @Andreas: Selbst für uns, die wir täglich damit arbeiten, ist es ein komplexes Thema. Ich muss sagen, es mal in einfachen Worten aufzuschlüsseln hilft nicht nur es anderen verständlich zu machen, sondern es selbst auch klarer zu sehen. Damit wir nicht wie Schrödinger klingen 🙂

  8. Andreas | 12.05.2009 17:34

    Schöner Artikel. Jetzt verstehen auch Menschen wie ich wenigstens im Groben, wovon geredet wird. Und dass sich diesmal hinter den Modewörtern semantisches Web und Ontologie in diesem Zusammenhang auch mal Inhalte verbergen. Freu mich auf mehr.

    Grüsse Andreas

  9. Dirk Worring-Ramstoeck | 12.05.2009 16:09

    Diese Ängste kann ich z.T. verstehen, andereseits war für mich immer klar: je mehr die Werber über mich wissen, desto besser können sie mir Werbung schicken, die mich interessiert (Was bitte soll ich mit dem Superangebot „Femina Slipeinlagen, jetzt 25% günstiger“?).
    Und es steht ja auch in Zukunft persönlich wie rechtlich jedem frei Nein zu sagen.

    Neu ist eben immer erstmal gefährlich, weil unbekannt.

  10. Rosner, Daniel | 12.05.2009 15:39

    http://try.ontos.com/

  11. Rosner, Daniel | 12.05.2009 15:38

    Hallo Dirk, Yves, Capo42,

    auf einem Seminar zum Thema konnte ich etwas wenig technisches (sieht man davon ab, dass der Körper die Hardware und Geist die Software ist) dafür etwas umso menschlicheres beobachten: die Angst oder Unsicherheit darüber dass es irgendwann Suchmaschinen und Software gibt die automatisch nach den zu mir formulierten Anforderungen einen Vertrag mit einer Agentur schließt (Web 4.0).

    Möchte noch dieses Tool empfehlen mit dem man englische Texte analysieren kann und die Triples exportieren kann.

    Bin gespannt auf den zweiten Teil des Artikels

    Daniel

  12. Dirk Worring-Ramstoeck | 12.05.2009 12:57

    Dank an unseren Twitterfreund @danielebneter: Natürlich ist es „semantisch“ und nicht seman-i-tisch 🙂
    Wald / Bäume / sehen – Problem

  13. Dirk Worring-Ramstoeck | 12.05.2009 12:52

    @yves: In Teil 2 werde ich da noch druaf eingehen. Auch auf die Frage, ob der „handgemachte“ Weg über semantische Inhaltsbeschreibung das Rennen gegen die Entwicklung in der KI gewinnt.

    Tut gut, ja! 🙂

  14. Yves | 12.05.2009 12:44

    Semantik wird mehr und mehr kommen. Dass wir aber im Jahre 2010 schon gut funktionierende semantische Anwendungen (Suchmaschinen, Datenbanken etc.) haben werden, wage ich zu bezweifeln. Dazu ist die Sache viel zu komplex und zu aufwändig. Das ganze braucht ja mehr Rechenzeit und ich meine viel mehr Rechenzeit, was ja dann so richtig an den Resourcen zehrt. Wenn man das menschliche Denken mit einer Maschine reproduzieren will, sieht man mal wieder, dass der Mensch doch nicht so einfach gestrickt ist. Tut auch mal gut. 😉

  15. Markus | 12.05.2009 11:47

    Bin gespannt, wie es mit der Weiterentwicklung des Webs weitergeht. Ich sage auch schon seit Jahren, dass Semantik das A und O ist. Spätestens im Web 3.0 wird es ein integraler Bestandteil sein.

  16. Dirk Worring-Ramstoeck | 12.05.2009 10:42

    Vielen Dank für Dein Feedback, capo42. Ich gebe Dir recht mit den Buzzwords, sie entstehen oft aus einem Marketing Hype heraus und haben wenig Inhalt. Oder werden einfach falsch verstanden ( siehe Stringtheorie). Und Otto Normalverbraucher zu erklären, wie das Internet „denken“ lernt ist eine grosse Herausforderung.

  17. capo42 | 12.05.2009 10:35

    Spannend geschrieben.
    Ich bin nie ein Fan von Buzzwords gewese. Diese sind meistens nur zu Marketingzwecken gut. Zukunftsprognosen im Internet haben noch nie gestimmt. Ich lasse mich mal überraschen was die zukunft bringen wird.
    Im Artikel gefällt mir der Technische blickwinkel sehr.

Kommentar schreiben

Please copy the string ffTNpe to the field below: