Während die Begriffe Künstliche Intelligenz (KI) und Machine Learning / Deep Learning heutzutage fast jeder kennt, sind die Begriffe Semantic Web
und semantische Systeme der Öffentlichkeit weithin unbekannt, obwohl diese in der Medizin und auch bis in die Telekommunikation,
die Verwaltung und die Robotik hinein wirkmächtig sind. Dieser Abend samt Buchpräsentation gewährt ungeahnte Einblicke.
Jahrelang kämpfte Künstliche Intelligenz (KI) um ihren Ruf; mal war Künstliche Intelligenz ein Hoffnungsträger mal war sie fast ein Synonym
für Misserfolg. Seit seiner Geburtsstunde hat Künstliche Intelligenz mit den 2 sog. KI-Wintern und 4 wichtigen Meilensteinen eigentlich
alle möglichen Höhen und Tiefen erlebt. Irgendwann glaubte jedoch niemand mehr, dass ein Comeback möglich wäre. In Wahrheit arbeiteten
Wissenschaftler auch während der Tiefzeiten stets sehr hart am Comeback der KI, und obwohl in der Zwischenzeit in diesem Bereich immer wieder
Erfolge gemeldet wurden, wurde der Durchbruch für die Allgemeinheit erst mit der Davos-Konferenz Anfang 2016 sichtbar. Also zufällig
sechs Monate nachdem unser erstes Buch Corporate Semantic Web -Wie semantische Anwendungen in Unternehmen Nutzen stiften (B. Ege et al.,2015)
beim Springer-Verlag veröffentlicht wurde. Dieses Buch ist eigentlich als Fortsetzung unseres ersten Buchs gedacht.
Wir haben dieses Mal unser Buchtitel Semantische Datenintelligenz im Einsatz genannt, um das immer stärkere Zusammenwachsen der beiden
großen Gebiete der KI, der symbolischen semantischen KI und der subsymbolischen maschinell lernenden KI, zu adressieren. Die Kombination
ermöglicht mit maschinellen Lernverfahren strukturierte und unstrukturierte Datenbestände in praktischen Anwendungsdomänen für den KI Einsatz
zu erschließen, relevante Informationen in den Daten zu erkennen, extrahiertes Wissen semantische zu Repräsentieren und automatisch
zu Interpretieren und damit neue semantische Schlussfolgerungen und Entscheidungen KI-basiert abzuleiten. In diesem Buch wird diese Form
der semantischen Datenintelligenz in unterschiedlichen Einsatzgebieten und praktischen Beispielen erläutert.
So, finden Sie in unserem Buch ein breites Spektrum von KI-Themen und Beispiele aus der Praxis sowie Antworten auf viele wichtige Fragen:
Was verstehen wir unter digitale Kuratierungstechnologien und Corporate Smart Insights, wozu werden sie genutzt? Welche Rolle spielen Ontologien
und Semantic Web-Technologien in der Künstlichen Intelligenz? Was bedeutet Semantische Künstliche Intelligenz? Was versteht man unter
Wissensgraphen? Welche Rolle werden Bitcoin und Blockchain-Technologien in unserem Leben in Zukunft spielen? Wo liegt der Schlüssel
zum Erfolg bei Entwicklung von KI-Anwendungen? Worauf kommt es bei der Umsetzung von Industrial Internet of Things-Applikationen?
Wie können Teams von Unbemannten Systemen effizient agieren? Was verstehen wir unter Artificial General Intelligence?
Wie kann man semantische Technologien im sicherheitskritischen Bereich der Flugsicherung oder aber auch für die Lieferkettenbeobachtung
einsetzen? Wie kann man natürlichsprachliche Texte automatisch zu Ontologien konvertieren? Warum ist Semiotik so ein wichtiges Schlüssel-Element
in der Kommunikation? Wie lässt sich sprachlich nicht explizit mitgeteiltes Wissen erschließen? Was verstehen wir unter Maschinenethik,
und vor allem welches Land macht das Rennen in Künstlicher Intelligenz?
Der sog. „KI-Winter“ ist nach langen Jahren endlich vorbei. Während die Begriffe „Künstliche Intelligenz“ (KI) und „Machine Learning“
/ „Deep Learning“ heutzutage fast jeder kennt, sind die Begriffe „Semantic Web“ und „semantische Systeme“ der Öffentlichkeit weithin oftmals unbekannt,
obwohl auch diese Begriffe wichtige und zukunftsrelevante Projekte im Kontext „Künstliche Intelligenz“ bezeichnen. Wir sind mittlerweile an einem Punkt
angelangt, an dem „semantische Systeme“ als effiziente wissensbasierte Systeme immer wichtiger werden und ihr Potential erkennen lassen,
so dass das „Semantic Web“ und die semantischen Technologien definitiv zu der kommenden Generation der KI gehören und diese mitbestimmen werden.
Wie bereits unser Buch Corporate Semantic Web – Wie semantische Anwendungen in Unternehmen Nutzen stiften (B. Ege et.al., Springer-Verlag, 2015)
erfolgreich dargestellt hat, gibt es ein sehr großes Interesse an semantischen Technologien und deren Anwendungen. Bereits heute reichen
diese Anwendungen semantischer Systeme von der semantischen Suche, über Knowledge Graphs und Chatbots bis zu Sprachanwendungen in der Medizin
und auch bis in die Telekommunikation, die Verwaltung und die Robotik hinein. Die jüngsten Entwicklungen zeigen dabei folgenden Trend:
Neben den klassischen Semantic Web Anwendungen, z.B. in Webbasierten Wissensgraphen und bei der semantischen Suche, beginnen semantische Systeme
in den industriellen Anwendungen neuer Generation, in Industrie 4.0 und Arbeit 4.0, Fuß zu fassen, so dass gesagt werden kann, dass
semantische Systeme spätestens mit der Einführung der Industrie 4.0 allgegenwärtig sein werden. Dies ist schon deshalb unumgänglich,
weil ohne semantische Technologien die Interoperabilität unter Maschinen und insbesondere Roboter für eine intelligente Produktion
und Zusammenarbeit nicht umsetzbar ist.
Semantische Technologien und deren Bausteine werden auch bei der Entwicklung von autonomen und selbstlernenden Systemen eine Schlüsselrolle spielen.
Unsere heutige Vorstellung von der Künstlichen Intelligenz beruht auf Algorithmen, deren Arbeitsweise nicht transparent ist. Das bedeutet, dass
die erzielten Ergebnisse oft nicht nachvollziehbar, wenn auch richtig sind. Intelligente Systeme müssen jedoch in Zukunft in der Lage sein,
nicht nur zu sagen, welche Lösung sie vorschlagen, sondern auch wie sie dazu gekommen sind (tell me why). Solche Systeme sind jedoch in absehbarer Zeit
nur mit wissensbasierten Systemen auf der Grundlage von semantischen Technologien erreichbar.
Dieses Buch zur semantischen Datenintelligenz soll mit zahlreichen Anwendungsbeispielen aus der Industrie sowie Web- und Unternehmens-anwendungen
die sinnvolle Kombinationen von wissensbasierten bzw. semantischen Technologien mit den rein datenbasierten KI Verfahren zeigen und den Leser
über diese illustrierenden Beispielen mit dem semantischen Ansatz vertraut machen. Es umfasst die folgenden Kapitel:
Kapitel 1: Einblick in die Welt der Künstlichen Intelligenz
Dieser Beitrag gibt dem Leser ein Überblick über die Künstliche Intelligenz-Technologien, und zwar von der Entstehung und Entwicklung
bis zu den aktuell verwendeten Ansätzen und Methoden: Welche Höhen und Tiefen hat Künstliche Intelligenz bis heute erlebt?
Was verstehen wir unter Neuronalen Netze, Deep Learning sowie Machine Learning? Welche Lerntechniken gibt es für Machine Learning?
Benötigen wir sowohl symbolische als auch nicht-symbolische Ansätze? Brauchen wir Regelbasierte Systeme in KI-Projekten doch nicht mehr?
Welche Rolle werden künftig Semantic Web Standards in der Entwicklung der Künstlichen Intelligenz spielen? Welche Nachteile haben
Machine Learning-Ansätze? Was versteht man unter einem Blackbox-Effekt? Welche Vorteile haben Semantic Web-Ansätze? Wo liegt der Schlüssel zum Erfolg?
Was erwartet uns in Zukunft?
Kapitel 2: Corporate Smart Insights
Der Erfolg wissensbasierter KI-Systeme hängt von der Verfügbarkeit und insbesondere auch von der Wiederverwendung digital kuratierten Wissens ab.
Es gilt existierende Wissensschätze durch digitale Kuratierungstechnologien zu heben und in KI-unterstützten Geschäftsanwendungen mit fortlaufend
erlernten Kenntnissen und Einsichten, sogenannten Corporate Smart Insights (CSI), in Enterprise Knowledge Graphs zu nutzen. Das kuratierte KI-Wissen
steigert die funktionale Güte, die Dateneffizienz, die Plausibilisierung und die Absicherung von KI-gestützten Funktionen in betrieblichen
Corporate Semantic Web (CSW) Anwendungen. Die technologische Innovation ist eine Insight Driven Organisation (IDO), die CSI lernt und vielfach nutzbar
macht. Eine IDO bettet semantisches Unternehmenswissen in maschinelles Lernen und aus Datenanalysen gewonnenen Smart Insights direkt in die
Smart Decisions und Smart Actions ein. Diese Kapitel adressiert die digitale Kuratierung von Corporate Smart Insights als Grundlage für die Verwendung
von semantischem Wissen in der KI.
Weiterlesen...
Dieser Beitrag gibt dem Leser ein Überblick über die Künstliche Intelligenz-Technologien, und zwar von der Entstehung und Entwicklung
bis zu den aktuell verwendeten Ansätzen und Methoden: Welche Höhen und Tiefen hat Künstliche Intelligenz bis heute erlebt?
Was verstehen wir unter Neuronalen Netzen, Deep Learning sowie Machine Learning? Welche Lerntechniken gibt es für Machine Learning?
Benötigen wir sowohl symbolische als auch nicht-symbolische Ansätze? Brauchen wir Regelbasierte Systeme in KI-Projekten doch nicht mehr?
Welche Nachteile haben „Machine Learning“-Ansätze? Was versteht man unter einem Blackbox-Effekt?
Verstehen wir eigentlich unter Künstlicher Intelligenz einen Taschenrechner, ein Buchhaltungsprogramm oder einen Schachcomputer?
Aus heutiger Sicht nennen wir eine Software, die aus ihren Erfahrungen lernen und sich dementsprechend weiterentwickeln kann,
ein selbstlernendes System bzw. Künstliche Intelligenz. Künstliche Intelligenz besteht aus einer Familie von Ansätzen und Techniken.
Dazu zählen unter anderem Logik (z.B. Aussagenlogik, Prädikatenlogik, Entscheidbarkeit), Unsicheres Wissen und Schlussfolgern
(Bayessche Netze, Fuzzy-Logik), Suchstrategien (Uninformierte Suche, Heuristische Suche), Wissensrepräsentation (Ontologien und Semantic Web),
Machine Learning (Neuronale Netze und Deep Learning in Kombination von supervised und unsupervised learning sowie von reinforcement learning),
Natural Language Processing, Computervision und Robotik. In den letzten Jahren rückte insbesondere die Kategorie Machine Learning
und die damit verbundenen Techniken und Ansätze immer mehr in den Brennpunkt der Künstlichen Intelligenz.
Dabei basieren alle „Machine Learning“-Ansätze eigentlich auf Statistik und Wahrscheinlichkeitstheorie und stellen in der Wahrheit
kein echtes wissensbasiertes System dar. Man muss jedoch zugeben, dass in den letzten Jahren zum einen mit Deep Learning und zum anderen
mit steigender Rechenleistung ein ganz frischer Wind in die Künstliche Intelligenz kam. Beispielsweise ermöglicht Deep Learning heute sehr vieles,
was früher nicht so selbstverständlich war, und zwar von der Sprachverarbeitung und Bilderkennung bis zum GO-Spielen.
Außerdem: Welche Rolle werden künftig Semantic Web Standards in der Entwicklung der Künstlichen Intelligenz spielen?
Welche Vorteile haben Semantic Web-Ansätze? Wo liegt der Schlüssel zum Erfolg? Was erwartet uns in Zukunft?
Im Rahmen dieses Beitrags werden die bisherigen relativ wichtigen Entwicklungen und aktuellen Trends mit Schwerpunkt Lernen
im Bereich Künstliche Intelligenz unter die Lupe genommen.
Neben Künstlicher Intelligenz sind auch die digitalen Währungen bzw. Kryptowährungen ein anderes wichtiges Thema in der digitalen Welt.
Ohne Zweifel die erste, berühmteste und wahrscheinlich die erfolgreichste Kryptowährung ist Bitcoin. Es gibt jedoch noch sehr viele verschiedene
digitalen Währungen wie Litecoin, XRP, EOS, NEO, Ether sowie Tether, und es kommen ständig neue dazu. Im Zentralpunkt der digitalen Währungen stehen
die Blockchain Technologien und digitale Währungen wie Bitcoin ist eigentlich nur eine Anwendung von Blockchain Technologien.
Mit Blockchain Technologien können vielmehr erreicht werden, z.B. in der Finanzwelt, im Identitätsmanagement aber auch im Bereich Internet of Things.
Auch Smart Contracts ist ein relativ neuer Bereich, welcher erst durch Blockchain Technologien wie Ethereum in der Praxis immer häufiger Anwendung finden wird.
Das Thema Kryptowährungen ist so kontrovers und polarisierend, sodass es immer noch heftige Diskussionen nicht nur zwischen Individuen,
sondern auch zwischen Konzernen, Regulierungsbehörden, Zentralbanken und Staaten verursacht. Eines ist jedoch klar: Kryptowährungen werden bald anfangen,
unser Leben so massiv zu dominieren, sodass sie nicht nur die heutigen konventionellen Währungen, sondern auch gewisse staatliche Strukturen in Frage stellen werden.
Künstliche Intelligenz hält bereits in nahezu allen Lebensbereichen den Einzug und umso wichtiger wird das Thema Ethik bzw. Maschinenethik.
Was bedeutet überhaupt Maschinenethik? Doch wie so oft steckt der Teufel im Detail. Es ergeben sich u.a. folgende Fragen: Wie sollten sich
intelligente Maschinen und Roboter verhalten? Darf ein Roboter einen Menschen belügen oder gar betrügen? Wer haftet, wenn ein autonomes Auto
einen Unfall verursacht? Darf Technik die Menschen ersetzen, anstatt sie zu unterstützen? Droht der Menschheit in Zukunft dadurch doch eine
massenhafte Arbeitslosigkeit? Darf eine unbemannte Maschine auf Menschen schießen? Welche ethischen Regeln müssen wir und die Maschinen folgen?
Welche Pflichten haben die Maschinen gegenüber den Menschen und anderen Maschinen?
Das Thema Ethik hat sehr viele Aspekte. Im Rahmen dieses Beitrags werden wir versuchen, die Fragen rundum Ethik bzw. Maschinenethik zu beantworten.
Dazu gehören aktuelle Themen wie Gesichtserkennung, autonomes Fahren, autonome Waffensysteme sowie Kriegsroboter, Roboter im Alltag, Anonymisierung
von Daten sowie gesellschaftliche Folgen. Nun fangen wir am besten mit einem hoch aktuellen Thema an, nämlich Gesichtserkennung.
Wer macht das Rennen in Künstlicher Intelligenz? China, USA oder Europäische Union? Es ist derzeit sehr schwierig, eine klare Antwort zu dieser Frage
zu geben, aber dennoch nicht unmöglich. Wir sind als Menschheit noch am Anfang dieser bahnbrechenden Technologie. Und es gibt eigentlich
keine eindeutigen Metriken zur Erfolgsmessung. Dennoch geben die Antworten auf einige Fragen genug Hinweise für die Zukunft:
Welches Land macht die meisten Forschungen? Welche Firmen oder Universitäten haben die meisten Patente?
Welches Land hat die meisten Elite-Universitäten oder Forschungseinrichtungen?
Welche Universitäten oder Forschungseinrichtungen veröffentlichen die Paper, die in anderen Veröffentlichungen am meisten zitiert sind?
Wer zieht die meisten Talente oder Fachkräfte ins Land? Welches Land hat die meisten zukunftsorientierten Startups?
Diese Fragen kann man beliebig verlängern, und all diese Fragen und Faktoren spielen bei Kräftemessen der Länder eine sehr wichtige Rolle.
Im Rahmen dieses Beitrages wird nur versucht, ausgehend von vielen kleinen Fragen und Antworten, eine klare Antwort auf eine große Frage zu finden.
Das Thema Künstliche Intelligenz (KI) ist heute so aktuell wie noch nie. Alle führenden Staaten der Welt rüsten sich digital auf bis
zum Geht nicht mehr. Das ist gleichzeitig auch ein Wettrennen. Doch, wer wird dieses Rennen gewinnen?
USA, China oder Europäische Union? Und wie wird Künstliche Intelligenz unser Leben verändern?
Werden Menschen am Ende dieses Prozesses größtenteils doch durch die Maschinen ersetzt?
Wer haftet dann, wenn eine Maschine Fehler macht? Was bedeutet Maschinenethik? Werden wir in absehbarer Zeit nicht mehr wissen können,
wer am anderen Ende der Leitung mit uns spricht: Ein Mensch oder doch eine Maschine? Welche Herausforderungen stehen uns bevor?
Und welche Zukunftstechnologie ist mindestens so strategisch wie Künstliche Intelligenz?
Wer macht das Rennen in Künstliche Intelligenz?
Genauso wichtig wie die ganzen technischen Fortschritte im Bereich Künstliche Intelligenz, ist auch die Antwort auf die folgende
Frage sehr wichtig: Wer macht das Rennen? USA, China oder EU? Als Menschheit stehen wir noch am Anfang dieser bahnbrechenden Technologie.
Und es gibt eigentlich keine eindeutigen Metriken zur Erfolgsmessung. Dennoch geben die Antworten auf einige Fragen genug Hinweise
für die Zukunft: Welches Land macht die besten Forschungen? Welche Firmen oder Universitäten haben die meisten oder weltbesten Patente?
Welches Land hat die meisten Elite-Universitäten oder Forschungseinrichtungen? Welche Universitäten veröffentlichen die besten Papers?
Wer zieht die meisten Talente oder Fachkräfte ins Land? Welches Land hat die meisten zukunftsorientierten Startups?
Was bedeutet die Quanten-unterstützte Künstliche Intelligenz? Wer hat die Nase vorn bei der Quanten-unterstützte Künstliche Intelligenz?
Wann: Mittw., 19.02.2020, 19:30-21:00 Uhr
Kursort: VHS Wiener Urania, Uraniastraße 1, 1010 Wien
Vortragender: DI B. Ege
TeilnehmerInnen: 1-50
Kurs-Nr.: 10452051
Künstliche Intelligenz hält bereits in nahezu allen Lebensbereichen den Einzug. Doch wie so oft steckt der Teufel im Detail.
Entstehen durch KI-bedingte Automation tatsächlich mehr Jobs als vernichtet wird? Droht die Menschheit in Zukunft massenhafte Arbeitslosigkeit?
Darf Technik die Menschen ersetzen, anstatt sie zu unterstützen? Wer haftet, wenn ein autonomes Auto einen Unfall verursacht?
Darf eine unbemannte Maschine auf Menschen schießen? Welche ethischen Regeln müssen wir folgen? Was bedeutet Maschinenethik?
Wann: Mittw., 26.02.2020, 19:30-21:00 Uhr
Kursort: VHS Wiener Urania, Uraniastraße 1, 1010 Wien
Vortragender: DI B. Ege
TeilnehmerInnen: 1-50
Kurs-Nr.: 10452052
Mit Künstliche Intelligenz stehen wir vor einem sehr wichtigen Wendepunkt. Wie hat alles angefangen und sich im Laufe der Jahrzehnte
weiterentwickelt? Wer waren die ersten KI-Pioniere? Was versteht man unter Turing-Test? Ist der Turing-Test bereits bestanden?
Was steckt hinter den KI-Technologien? Wie entsteht der künstliche Gedanke? Wird sich die ganze Erde bald in eine digitale Matrix umwandeln?
Und vor allem; was erwartet uns Morgen? (wegen Covid-19 abgesagt)
Weiterlesen...
Der Workshop zu unserem Buchprojekt hat vom 03. bis 05. Juni 2019 im Seminarhotel Springer Schlössl in Wien stattgefunden.
Am Workshop haben sowohl die Mitautoren und die Herausgeber als auch mit Herrn Martin Börger ein Vertreter des Springer-Verlags teilgenommen,
wodurch offene Fragen inhaltlicher sowie redaktioneller Natur geklärt werden konnten.
In Bezug auf den Inhalt wurden im Workshop die Kernaussagen der Beiträge diskutiert und damit für das Buch ein konsistenter Rahmen abgesteckt.
Darüber hinaus fand ein reger und für alle Beteiligten anregender Austausch zum aktuellen Wissensstand in den Bereichen
„Semantische Technologien/Semantic Web“ und „Künstliche Intelligenz“ statt.
Durch die Präsentation der geplanten Beiträge und deren Kernaussagen wurden für die Autoren die Zusammenhänge der Beiträge sichtbar,
was den Bezug der Beiträge aufeinander ermöglicht. Dies wird durch die geplanten „Peer-to-Peer“-Reviews verstärkt.
Auch wurde ein genauer Zeitplan bis zur Manuskriptabgabe erstellt. Nach Absprache mit den Autoren und dem Springer-Verlag während des Workshops
hat unser Buch auch einen neuen Titel bekommen. nämlich Semantische Datenintelligenz im Einsatz. Ein Untertitel zum Buch ist auch nicht mehr vorgesehen.
Die Sprache des Buchs ist Deutsch. Das Buch kommt voraussichtlich Oktober 2020 in den Markt (Springer-Verlag).
KÜNSTLICHE INTELLIGENZ
- Vortragsreihe an der VHS Landstraße in Wien
Semantic Events
Börteçin Ege, Dezember 30, 2018
Künstliche Intelligenz
Der Begriff Künstliche Intelligenz (KI) ist heutzutage in aller Munde. Doch, was genau steckt hinter diesem Begriff?
Wie wird KI unser Leben verändern? Werden Menschen am Ende dieses Prozesses durch Maschinen ersetzt?
Wer haftet, wenn eine Maschine Fehler macht? Wie funktionieren digitale Währungen? Müssen wir in Zukunft nur mehr mit digitalen Währungen zahlen?
Können wir am Apparat bald nicht mehr unterscheiden, wer mit uns spricht: Ein Mensch oder doch eine Maschine?
Welche Herausforderungen stehen uns dabei überhaupt bevor? Im Rahmen dieser Vortragsreihe sollen all diese Fragen aufgeklärt werden.
Die Vorträge finden an vier verschiedenen Terminen von März bis Juni an der VHS Landstraße in Wien statt.
Gestern/Heute/Morgen
Durch Künstliche Intelligenz steht die Menschheit vor einem sehr wichtigen Wendepunkt. Das ist jedoch das Ergebnis eines langen und schwierigen Prozesses.
Wie hat alles angefangen und sich im Laufe der Jahrzehnte weiterentwickelt? Wer waren die ersten KI-Pioniere? Was versteht man unter Turing-Test?
Was steckt hinter KI-Technologien? Wie entsteht dieser "künstliche Gedanke"? Wird sich die ganze Erde bald in eine digitale Matrix umwandeln?
Und vor allem; was erwartet uns morgen?
Wann: 19.03.2019 (Dienstag), 18:00-19:30 Uhr
Kursort: Landstraße, Hainburger Straße 29 , 1030 Wien
Veranstalter: VHS Landstraße
Kursleitung: Dipl.-Ing. Börteçin Ege
TeilnehmerInnen: 6-24
Weiterlesen...
Künstliche Intelligenz im Alltag
IBM Watson, Autonomes Fahren, Pilotenlose Flugzeuge, Humanoide Roboter, Kryptowährung, Chatbots, Drohnen und ähnliche autonome Kriegsmaschinen;
diese Liste kann man beliebig verlängern. Doch, in welchen Bereichen ist ein Einsatz von KI-Anwendungen sinnvoll?
Was sind deren Stärken und Schwächen? Kann ein Computer tatsächlich einen Arzt oder Anwalt ersetzen?
Wo liegt die Grenze zwischen Realität und Science-Fiction?
Wann: 09.04.2019 (Dienstag), 18:00-19:30 Uhr
Kursort: Landstraße, Hainburger Straße 29, 1030 Wien
Veranstalter: VHS Landstraße
Kursleitung: Dipl.-Ing. Börteçin Ege
TeilnehmerInnen: 6-24
Kryptowährungen
In der breiten Bevölkerung herrscht immer noch Unklarheit darüber, was man unter Kryptowährungen genau versteht.
Die weltweit bekannteste digitale Währung ist Bitcoin. Doch trotz seinem genialen Konzept wirft Bitcoin
und alle anderen ähnlichen digitalen Währungen viele Fragen auf. Für manche sind die digitalen Währungen ein Wirtschaftswunder,
für viele jedoch hochspekulativ und mit ungewisser Zukunft. Warum konnten sie sich gegen konventionelle Währungen bisher nicht durchsetzen?
Was erwartet die Welt, wenn sie am Ende doch erfolgreich werden?
Wann: 07.05.2019 (Dienstag), 18:00-19:30 Uhr>
Kursort: Landstraße, Hainburger Straße 29, 1030 Wien
Veranstalter: VHS Landstraße
Kursleitung: Dipl.-Ing. Börteçin Ege
TeilnehmerInnen: 6-24
Ethische und philosophische Aspekte
Künstliche Intelligenz hält bereits in nahezu allen Lebensbereichen Einzug. Doch wie so oft steckt der Teufel im Detail.
Entstehen durch KI-bedingte Automation tatsächlich mehr Jobs als vernichtet werden? Droht die Menschheit in Zukunft massenhafte Arbeitslosigkeit?
Darf Technik die Menschen ersetzen anstatt sie zu unterstützen? Wer haftet, wenn ein autonomes Auto einen Unfall verursacht?
Darf eine unbemannte Maschine auf Menschen schießen? Welche ethischen Regeln müssen dabei beachtet werden?
Wann: 11.06.2019 (Dienstag), 18:00-19:30 Uhr
Kursort: Landstraße, Hainburger Straße 29, 1030 Wien
Veranstalter: VHS Landstraße
Kursleitung: Dipl.-Ing. Börteçin Ege
TeilnehmerInnen: 6-24
Neues Buchprojekt
SEMANTISCHE DATENINTELLIGENZ IM EINSATZ
Semantic News
Börteçin Ege, Juni 15, 2019 / Juli 7, 2018
Verlag: Springer Vieweg
Herausgeber: Adrian Paschke, Börteçin Ege
Umfang: ca. 200 Seiten
Erscheinung: Voraussichtlich im November 2020
Der sog. „KI-Winter“ ist nach langen Jahren endlich vorbei. Auch das Jahr 2017 stand wieder ganz im Zeichen der kognitiven Systeme.
Während die Begriffe „Künstliche Intelligenz“ (KI) und „Machine Learning“ / „Deep Learning“ heutzutage fast jeder kennt, sind die Begriffe „Semantic Web“
und „semantische Systeme“ der Öffentlichkeit weithin unbekannt, obwohl auch diese Begriffe wichtige und zukunftsrelevante Projekte im Kontext
„Künstliche Intelligenz“ bezeichnen. Wir sind mittlerweile an einem Punkt angelangt, an dem „semantische Systeme“ als effiziente wissensbasierte Systeme
immer wichtiger werden und ihr Potential erkennen lassen, so dass das „Semantic Web“ und die semantischen Technologien definitiv zu der kommenden Generation
der KI gehören und diese mitbestimmen werden.
Wie bereits das Buch Corporate Semantic Web – Wie semantische Anwendungen in Unternehmen Nutzen stiften (Ege et.al., Springer-Verlag, 2015) erfolgreich
dargestellt hat, gibt es ein sehr großes Interesse an semantischen Technologien und deren Anwendungen. Bereits heute reichen diese Anwendungen
semantischer Systeme von der semantischen Suche, über Knowledge Graphs und Chatbots bis zu Sprachanwendungen in der Medizin und auch bis in die
Telekommunikation, die Verwaltung und die Robotik hinein. Die jüngsten Entwicklungen zeigen dabei folgenden Trend: Neben den klassischen
Semantic Web Anwendungen, z.B. in Web-basierten Wissensgraphen und bei der semantischen Suche, beginnen semantische Systeme in den industriellen Anwendungen
neuer Generation, in Industrie 4.0 und Arbeit 4.0, Fuß zu fassen, so dass gesagt werden kann, dass semantische Systeme spätestens mit der Einführung
der Industrie 4.0 allgegenwärtig sein werden. Dies ist schon deshalb unumgänglich, weil ohne semantische Technologien die Interoperabilität unter Maschinen
und insbesondere Roboter für eine intelligente Produktion und Zusammenarbeit nicht umsetzbar ist.
Semantische Technologien und deren Bausteine werden auch bei der Entwicklung von autonomen und selbstlernbaren Systemen eine Schlüsselrolle spielen.
Unsere heutige Vorstellung von der Künstlichen Intelligenz beruht auf Algorithmen, deren Arbeitsweise nicht transparent ist.
Das bedeutet, dass die erzielten Ergebnisse oft nicht nachvollziehbar, wenn auch richtig sind. Intelligente Systeme müssen jedoch in Zukunft in der Lage sein,
nicht nur zu sagen, welche Lösung sie vorschlagen, sondern auch wie dazu gekommen sind (tell me why). Solche Systeme sind jedoch in absehbarer Zeit
nur mit wissensbasierten Systemen auf der Grundlage von semantischen Technologien erreichbar.Unser neues Buch soll wiederum mit zahlreichen Anwendungsbeispielen aus der Industrie die sinnvolle Kombinationen von wissensbasierten
bzw. semantischen Technologien mit den rein datenbasierten Verfahren zeigen und den Leser über diese illustrierenden Beispielen mit dem semantischen Ansatz
vertraut machen. Zu unserem Buchprojekt tragen bereits zahlreiche renommierte Instituten aus Universitäten in Deutschland sowie hochspezialisierte Unternehmen und Global Player
aus der Schweiz, Österreich und Deutschland bei.
Interview
A Conversation on AI and Data Science: Semantics to Machine Learning
Interviews
Börteçin Ege, Januar 22, 2018
An Interview with Dr. Riza Berkan and Dr. Mehmet Süzen
Dr. Riza Berkan is founder and president of exClone Inc. He is a nuclear scientist with a specialization in semantics, fuzzy logic
and artificial intelligence (AI). He is the author of the book Fuzzy Systems Designs Principles published by IEEE and over 100 scientific
articles on semantics, neural networks, fuzzy logic and AI. Dr. Berkan is also an expert on semantic search technologies.
Before he started exClone Inc. in 2014 he founded hakia Inc., which was an Internet semantic search engine (2004-2011).
Dr. Mehmet Süzen, originally from the island of Cyprus, completed his doctoral work at the Frankfurt Institute for Advanced Studies (FIAS)
specializing in fundamentals of statistical physics. He worked at the Institute for Photonic Sciences (ICFO) in Barcelona as a postdoctoral scientist
employing modern sparse signal recovery techniques i.e. compressed sensing to optics. He has been working in various academic institutions
and industries in Europe since then as a data scientist and he is active in machine learning research.
BE: Dear Riza, Dear Mehmet you have been involved for a long time also with machine learning, neural networks and AI. Riza,
you are also an expert on Semantic Web and semantic technologies. What do you think today about semantic technologies and other
emerging technologies like machine learning?
RB: We are still at infancy in many fronts scientifically speaking. Creating cognitive and sentient computers is a very challenging problem
suffering from vast unknowns in biological intelligence. It also suffers from the lack of defining the problem properly like, what is intelligence,
awareness, or learning? When the words we use to define scientific problems are vague, it becomes a nightmare to work on them. Today,
there is so much interest in these disciplines, which is a good thing, yet with the increased participation there is a chaos of terminology.
In addition, large tech companies have started to exaggerate these technologies for their own agenda, sometimes creating hype around particular methods
that suit them better. In conclusion, the state of AI technologies today (all included) is not farther than the 2nd mile in a 1,000 mile journey.
Assuming that we are in the 3rd mile would be a gross optimism.
MS: We have seen an emergence of a new field, so called data science last years, which covers machine learning and semantic products.
Originating from Industry 4.0 initiative by the German government. Technologies and products heavily based on machine learning are used daily by billions
of people around the world. The impact is high. But such an incremental success was possible because of simultaneous progress in scalable computing,
mass collection of data and interest from industrial investment. The core data science techniques have been actually existed many decades,
such as parallel processing, neural networks and statistical learning. Read more...
BE: How will machine learning influence semantic technologies and other fields like financial industries?
RB: Machine learning is a logical step when examining biological intelligence, especially how human brain learns. The current machine learning methods are
mainly data-driven, and their success depends on availability, completeness, suitability, and reliability of data. The core concept is having a computer
to figure out information without explicitly coding for it. Therefore, methods implementing this core concept are quite forward looking and promising.
However, the current approaches are rudimentary and ill-suited for a class of problems involving natural languages. Industrial (or commercial) success
depends of the type of application and the nature of the problem. Can machine learning (ML) crack the code of stock markets? No. Because stock market data
is incomplete in describing the entire dynamics of markets. But ML can learn the spending patterns of people in certain demographics,
and produce a commercially viable outcome.
MS: I think machine learning could help in advancing semantic technologies further. One of the main issues in building semantic systems,
that they require high level human intervention i.e., building ontologies or human produced data. For example, German company DeepL,
which is providing high performing translation platform uses human translated data in mass scale with machine learning.
Semantic processing with machine learning has definitely transformed the way companies interact with customers and how they operate in their core business.
BE: Do you think, that semantic technologies have reached a certain degree of maturity?
RB: No. By no means. If the term “semantic technologies” referring to natural language processing (NLP) and knowledge representation (KR),
there is a quite a large body of work that has already been done in academics. Unfortunately, the background required to understand these
advancements are much higher than the knowledge of today’s technology engineers, most of whom have no training in linguistics and related
fields. Therefore, technology seriously lags even to bring the current scientific advances to the surface of end usage.
BE: What is for you learning in the context of machine learning?
MS: I don’t think foundations of quantification of learning is studied enough or questioned enough in machine learning.
As Pedro Domingo puts machine learning contains lots of ‘folklore’, and what is learning in machine learning is one of them.
In research, I found amazing that actually quantification of ‘learning’ and ‘learning curves’ in machine learning originates
from Hermann Ebbinghaus’s work from early 1900s. He defined ‘forgetting curves’ over time and associates learning with
memory and experience over time. In my opinion, this is a toy model of human learning experience.
A learning algorithm should be able to show an increased performance over experience, i.e., using more data.
Unfortunately, many people think a simple regression or clustering data count as learning, which is obviously not true in naive form.
BE: Do you think that the most of databased machine learning methods and neuronal networks are black-boxes and
we need knowledge-based systems instead of them?
RB: Black-box often refers to the notion of associated memory in neural networks (NN) where information is not stored in a single neuron
(or location), instead it is distributed throughout a network. As a result, when you examine a trained NN, you cannot recognize
any information other than the connection weights. It is a black box in the sense that you could not just reach in and correct some
information quickly, it has to be retrained with corrected data. Knowledge-based machine learning, depending on the architecture,
can be more transparent.
MS: Explainable machine learning is one of the important goals we should have, otherwise, using black boxes blindly is really
a bad practice. On the other hand, if they are giving us practically good results, we must use them as engineering tools,
such as in computer vision to assist human decision maker. I think amalgamation of knowledge-based systems and data-driven approaches
should be utilized together, not exclusively.
BE: Can machine learning use knowledge more efficient than data? If you think it does, how can we turn data into knowledge?
RB: First of all, data-based machine learning is effective for perception, but not necessarily for learning knowledge.
For example, making sense of an image is a perception process (pattern recognition), and imagery data is suitable for NN application.
You can apply NN using sound, temperature, velocity, or price data. All you will accomplish is the perception/recognition step.
However, learning the knowledge of what an image means, and how it is related to all other concepts in the world requires knowledge-based
machine learning. Knowledge is already available to us in many forms, and making use of it to generate new knowledge is a different
animal. There is a simple description I made years ago, which goes like this: Data is the fundamental unit. Recognizing difference
in data is information, recognizing difference in information is knowledge, and recognizing difference in knowledge is logic.
With this simplistic view, one can say that data-driven machine learning serves the first chain in the link,
whereas knowledge-based machine learning serves the second chain. The third chain has not yet been explored very well.
MS: This question goes in to heart of neuroscience question of how human brain processes data and produce
a knowledge based on experience. Without understanding that we can speculate how can we build a machine learning system
that even can understand what is knowledge. For instance, machine learning approaches can really produce statistical inferences
using data, but we don’t know whether resulting inferences can be categorized as knowledge. In this direction,
I would agree with Yann LeCun’s vision of understanding what is “unsupervised learning” fundamentally may answer this question.
BE: Do you think that the human brain learns mostly from knowledge and not from data?
RB: The human brain uses data for perception, and uses perception for knowledge. If some knowledge has already been documented,
it can be reused to generate new knowledge. That’s what we do when we read books. Most of our learning is reading the existing
knowledge. Most of our creativity or judgment is to make new knowledge from what we learned.
MS: Biological system as complex as human brain is a product of millions of years of evolutionary process.
For this reason, it is well be true that it posses biologically encoded learning mechanisms that actually triggered by new knowledge
rather than purely data centric way.
BE: What are the advantages and challenges of knowledge-based learning?
RB: This is the science of knowledge representation, and creating models (ontologies) of how concepts are related to each other.
Once this majestic fountain of knowledge can be understood and used by a computer, then you have two fundamental cognitive skills
embedded in that computer: (1) understanding language at a conceptual level, and (2) making associations to generate new knowledge.
Knowledge-based learning is quite a new concept and not much done in this area so far, but it is coming.
MS: One of the main challenge is manually-building a knowledge base. They are very rigid and cannot be generalized easily.
Advantage would be they could produce highly accurate results in very specialized domain.
BE: What do you think about deep learning? Some people think it is a silver bullet…
MS: Deep learning has made of course a good progress in terms of enabling us to produce highly accurate models,
especially in computer vision. Unfortunately, it isn’t a silver bullet. But, understanding how they produce such
a highly accurate model that violates complexity measures, such as Vapnik–Chervonenkis dimension,
may lead to an advancement in theoretical understand of what is learning really is, if it is studied in the context
of biological brain together. I think it has stimulate a lot of research and it is a very good thing.
We should be very sceptical about creating an attachment to a single technique emotionally.
Notice that, now deep learning loses its original meaning, and used as an umbrella term for modern machine learning research.
BE: You think, that deep learning is immature for NLP and it doesn’t good fit for chatbots?
RB: Deep learning is not immature. The problem is that some people using language as their data set do not understand the nature of this
data set. Very simple analogy is stock market data (easier to grasp). We all know stock market (price) data is incomplete to describe
the entire process. Natural language is very similar. If you take millions of pages of text as your data to train a neural network,
you are not doing anything different that taking millions of price data of stock market. Neither will result in a complete solution.
NLP encompasses all levels of “data-information-knowledge-logic” chain. Therefore, a deep learning approach has to address all levels
during training. I have not yet seen this level of approach so far, but I am sure it will come soon.
BE: Riza, you think, websites will turn soon into talk sites. What does a chatbot do that a search engine doesn’t?
RB: Search engine is a single step process of retrieving information. Chatbot is a multi-step process of retrieving information.
Multiple steps, very similar to what we do during a conversation, is obviously much more powerful technique.
However, it has many challenges. In a multi-step approach, chatbot must be able to ask questions relevant to the topic of conversation,
hence a short-term memory model is needed, and high level of pronoun tracking. Then, based on the given answers step-by-step,
chatbot should converge to an answer. Once this level of interaction is mastered by chatbots, search engines will lose their role
significantly. Most long-tail queries going into Google will start to find better responses in multi-step chatbots.
BE: In one of your papers you tell, that most of chatbots don’t use AI, but they are misrepresenting AI, how?
RB: Yes, that was referring to some chatbot platforms which require to script every single conversation one-by-one
in a hard coded manner. Devoid of any NLP detection capability, devoid of any flexible dialogue flow, devoid of any knowledge model,
these chatbots do not deserve to call themselves an AI product. I would say 90% of all platforms are serving this type of architecture.
It looks easy to create a chatbot without any AI background. Some of them will find commercial success, such as in simple banking
transactions.
BE: Riza, could you tell us your exClone project shortly and the idea behind of it?
RB: exClone is a knowledge-based machine learning technology for conversational AI, which attacks the chatbot problem in a
3 - dimensional way: (1) NLP, (2) Machine Learning, (3) Human dialogue theory. The 3rd dimension is our proprietary approach.
We are not done yet with our journey, but we have some promising light at the end of the tunnel. We called it exClone,
referring to “cloning expertise”, which is a fancy name for knowledge-based machine learning.
BE: Do you think that IBM Watson is really a success story?
RB: IBM Watson is now an empty shell, nothing but an API farm, collected from 3rd party technology vendors who agreed to highly predatory
commercial terms with IBM. We rejected their commercial terms, otherwise exClone would be in the farm. There is really nothing to talk
about Watson any more, and I quit following them for sometime.
BE: Do you think that AI will threaten human jobs, or quite the opposite so that it will create more jobs than it destroys?
MS: I think we first need to define what do we mean by AI. I think what you are referring to is “super” automation.
The better question might be, whether exponential increase in automation of many jobs and processes would lead to less or more jobs.
I think this is a policy question to our governments and policy makers, how to keep humans busy. But I think the danger of AI taking over
all jobs is exaggerated. One good example is that, since 60s, automated piloting systems are in place, but we still have pilots flying
the planes. Automation is good but human intervention may not be easily removed from the loop. We do have good advances in algorithms
and robotics, but we might be decades away to reach certain maturity in AI systems, if not at all to beat humans in general intelligence
and biological dexterity. I think we won’t see any mass unemployment just because of AI. It would be because of social issues not because
of AI.
BE: Finally, a simple question about the two hottest discussion topics nowadays: Would you buy yourself a self-driving car or Bitcoin?
MS: Yes, I would use Bitcoin. If Audi releases an affordable version of their cars from ‘I, robot’ the movie, I want one of those.
RB: Commercialization of the self-driving cars begs this question: “Will you sign a disclaimer when paying thousands of dollars to buy
a car to ensure that you would not sue the company if its self-driving malfunctioned?” I will not sign it. From the legal nightmare
point of view, especially here in the US, it will never happen, same as drones. I think self-driving technology is for the military.
Bitcoin is an interesting war against the current monetary control of central banks. I am not sure how this will pan out.
I will use whatever buys me my pipe tobacco :-)
BE: Thank you all for the very interesting interview!
10 Jahre Arbeitsgruppe Semantic Web
Semantic News
Börteçin Ege, Januar 07, 2018
Liebe Gruppenmitglieder,
unsere Arbeitsgruppe Semantic Web wurde im November 2007 gegründet und nunmehr schon über 10 Jahre alt.
Mit fast 3500 Mitgliedern überwiegend aus dem deutschsprachigen Raum ist sie vom Anfang an eine der aktivsten und innovativsten Gruppen
seiner Kategorie. Die Gruppe Semantic Web hat sich seit 10 Jahren zum Ziel gesetzt, seine Mitglieder über ein Zukunftssystem zu informieren, nämlich über
Semantic Web und semantische Systeme, auch wenn sie und die Künstliche Intelligenz damals zumindest bis zu einem gewissen Grad in „Kinderschuhen“ steckten.
Nun der sog. „KI-Winter“ nach langen Jahren endlich vorbei und wie erwartet stand auch das Jahr 2017 ganz im Zeichen der kognitiven Systeme:
Ich denke, die meisten Begriffe, die wir in diesem Zusammenhang im vergangenen Jahr gehört hatten, waren Künstliche Intelligenz, Maschinelles Lernen,
Deep Learning, Chatbots, Autonomes Fahren, Selbstlernende Systeme, Cyber-Attacken, Ransomware und natürlich Bitcoin.
Wir sind mittlerweile an einem Wendepunkt angelangt, wo semantische Systeme gegenüber den datenbasierten Systemen wie Maschinelles Lernen immer wichtiger werden.
Zusammenfassend kann man nur sagen, dass Semantic Web und semantische Systeme definitiv der kommenden Generation der KI gehören.
Ein Highlight der letzten Jahre war unser Buch
Corporate Semantic Web
Corporate Semantic Web (Hrsg. B.Ege et al.),
welches im Juni 2015 beim Springer-Verlag erschienen ist. Ohne unsere Arbeitsgruppe Semantic Web wäre ein solches Werk sicherlich nie entstanden.
Das Buch war vom Anfang an bei Amazon ein Bestseller und hat anscheinend bis auf den heutigen Tag an seiner Aktualität nichts verloren.
Außerdem wurden die einzelnen Beiträge des Buchs laut Bookmetrix bisher über 57.000 Mal von der Springer-Verlagsseite heruntergeladen.
Der bisher meist heruntergeladene Beitrag des Buchs ist Marktstudie: Welche Standards und Tools werden
in Unternehmen eingesetzt? (B.Ege) mit 2252 Downloads (Stand: 07.01.2018). Außerdem bedanke ich mich sowohl bei den Gruppenmitgliedern
als auch beim Moderatoren-Team für ihre Treue und gute Zusammenarbeit und wünsche allen ein erfolgreiches und schönes neues Jahr!
Interview
Anmerkungen zur jetzigen und künftigen Rolle von Semantik
Interviews
Börteçin Ege, Juli 27, 2017
Ein Interview mit Prof. Dr. Ulrich Schade
BE: Sehr geehrter Herr Prof. Schade. Sie sind Mathematiker und Linguist. Sie beschäftigen sich intensiv auch mit semantischen Technologien.
Sehen Sie die Zukunft in den semantischen Technologien, wenn es darum geht, nicht nur für Menschen, sondern auch für Maschinen ein verständliches und sicheres Web,
also das „Semantic Web“, aufzubauen?
US: Sehr geehrter Herr Ege, semantische Technologien können dazu beitragen, dass das Web leistungsfähiger wird.
Damit meine ich, dass für uns Menschen der Umgang mit dem Web einfacher wird und wir schneller gewünschte Ergebnisse erzielen können,
also etwa bei einer Suche die Antwort erhalten, die wir benötigen. Das ist zunächst einmal unabhängig von „Verstehen“ und von Sicherheit.
BE: Sie glauben also nicht, dass die Maschinen uns irgendwann tadellos verstehen werden? Ich meine einen Supercomputer wie der HAL 9000 im Stanley Kubricks legendären Film
2001: A Space Odyssey. Weiterlesen...
US: Das kommt darauf an, wie wir „Verstehen“ definieren wollen. Wenn wir mit Menschen kommunizieren, können wir ja eigentlich auch nicht sicher sein,
dass sie uns „verstehen“. Wir leiten das lediglich aus den Handlungen des anderen ab. Wenn wir „Verstehen“ so definieren, dass die Maschine in der
Kommunikation und als Folge der Kommunikation „pragmatisch“ so handelt, wie wir es von einem Menschen erwarten, ist „Verstehen“ erreichbar.
Natürlich erwarten wir von der Maschine andere Ergebnisse auf eine Frage, die, wenn es um Faktenwissen geht, genauer und ausführlicher sein sollten.
Das korrekte „pragmatische Handeln“ bezieht sich also nicht auf die Ergebnisse, sondern darauf, dass die Frage im Sinne des Fragenden beantwortet wird.
Wenn ich Ihnen beispielsweise die Frage stelle „Können Sie mir sagen, wie bei Ihnen das Wetter ist?“, erwarte ich nicht die Antwort „Ja, das kann ich.“,
sondern eine Auskunft über das Wetter in Wien. Entsprechende Reaktionen und Antworten erwarte ich von einem Computer, der mich „versteht“.
Das können wir erreichen, auch bzw. insbesondere mit der Hilfe semantischer Technologien. Will man mehr unter „Verstehen“ verstehen, ist die Diskussion
eine andere, und man müsste sich dann darüber einigen, was „mehr“ bedeutet.
BE: Sie werden sich sicher an den Sieg von IBM Watson erinnern, das sich im Jahr 2011 bei der Quizshow Jeopardy! gegenüber seinen menschlichen
Konkurrenten durchsetzen konnte. Watson ist ja in der Lage, in nur 15 Sekunden die Akten von einer Million Krebspatienten miteinander zu vergleichen,
10 Millionen Wirtschaftsberichte und 100 Millionen Benutzeranleitungen einzulesen und zu bewerten, um anschließend diesbezügliche Fragen sofort zu
beantworten. Was halten Sie von diesem Sieg und im Allgemeinen von IBMs Projekt Watson? Sehen Sie in Watson eine hochwertige Semantische Suchmaschine?
US: Korrekt, „Watson“ gelang ein überzeugender Sieg gegen die früheren Rekord-Sieger Ken Jennings und Bratt Rutter. Da in der Show in natürlicher Sprache
gestellte, zum Teil recht komplexe Fragen beantwortet werden mussten, und „Watson“ dies gelang, agierte das System in dem genannten Sinn pragmatisch
sinnvoll. Ich kann Ihnen zu diesem „Watson“ leider wenig sagen, aber meine Mitarbeiter haben ein IBM-System mit der Bezeichnung „Watson Content Analytics“
(WCA) in Bezug auf dessen linguistische Fähigkeiten hin untersucht. Das Ergebnis war sehr enttäuschend. Das darf ich vielleicht an folgendem Beispiel erläutern.
Ein grundlegender Baustein der linguistischen Analyse ist das sogenannte POS-Tagging, bei dem Wörtern ihre syntaktische Kategorie zugeordnet wird.
Wir haben die Güte des in WCA integrierten POS-Tagger durch deren Anwendung auf das sogenannte TIGERKorpus
(Brants, et al., 2004) getestet. Dieses Korpus wurde durch das Institut für Maschinelle
Sprachverarbeitung der Universität Stuttgart erstellt und wird dort auch gewartet, vgl. dazu auch
http://www.ims.uni-stuttgart.de/forschung/ressourcen/korpora/tiger.html. Das Korpus besteht aus
etwa 50.000 Sätzen (900.000 Token), die Zeitungsberichten der Frankfurter Rundschau aus den
Jahren 1990 bis 1994 entnommen sind. Das Korpus enthält Annotationen zu den syntaktischen
Kategorien, zur Morphologie und zu den Lemmata. Es ist semi-automatisch annotiert und kann damit
als „Goldstandard“ für POS-Tagger genutzt werden. Von den bekannten „Open Source“-POS-Taggern
erreichte der OpenNLP-Tagger (Apache OpenNLP library, http://opennlp.apache.org/) 97,5937%, der
TreeTagger (Schmid, 1994) 94,9597% und der allerdings auf dem TIGER-Korpus trainierte Tagger aus
dem MateTool (Bohnet & Nivre, 2012) 99,6123%. Die Fehler dieser Tagger betreffen im Wesentlichen
Eigennamen, die nicht als Eigennamen, sondern als Nomen annotiert werden. WCA erreichte 91,8%.
Die Fehler sind zum Teil unverständlich. Im Satz „Nach einer Umfrage des Wirtschaftsmagazins
Fortune unter den Bossen von 500 Großunternehmen wünschten im Mai nur elf Prozent „Ross for
President“, während 78 Prozent sich für Bush und vier Prozent für Clinton aussprachen.“ annotiert der
WCA-POS-Tagger beispielsweise „elf Prozent“ als „adjective noun“, „78 Prozent“ korrekt als
„numeral noun“ und „vier Prozent“ als „determiner noun“. Da das POS-Tagging die Grundlage für die
syntaktische Analyse darstellt und diese wiederum die Grundlage der semantischen Analyse, gibt es
ein Problem. Die einfachste Erklärung für das schlechte Abschneiden von WCA besteht natürlich
darin, dass WCA Algorithmen nutzt, die für das Englische entwickelt bzw. trainiert wurden und dass
diese nicht auf das Deutsche angepasst sind. Insgesamt kann ich damit leider Ihre Frage nicht durch
Rückgriff auf eigene Untersuchungen beantworten.
BE: Glauben Sie an die Lernfähigkeit der Maschinen, auch wenn es sich wie eine Zukunftsmusik
anhört? Was wäre der Schlüssel des Erfolges Ihrer Meinung nach; Ontologien, Maschinelles Lernen
oder sogar die Kombination der beiden? Wo liegen die möglichen Schwierigkeiten?
US: „Deep Learning“ ist, wie Sie wissen, sehr erfolgreich, etwa beim GO oder sogar beim Pokern. Der
Unterschied zwischen GO und Poker liegt dabei darin, dass beim GO alle verfügbare Information
offen ersichtlich ist, was für das Pokern nicht gilt. Um erfolgreich Poker spielen zu lernen, musste das
entsprechende System auch lernen, Bluffs der menschlichen Gegenspieler einzuschätzen, was
gelungen ist. Trotzdem bieten Spiele wie GO und auch Poker den wichtigen Vorteil, dass es am Ende
immer klar feststeht, wer gewonnen hat. Daraus ergibt sich ein objektives Kriterium, das die
Verfahren nutzen können. Bei der Verarbeitung von Sprache ist dieses Kriterium, also die
Information, ob die Kommunikation gelungen ist oder nicht, nicht immer verfügbar bzw. ableitbar.
Eine natürliche Sprache zu verarbeiten kann daher nicht so leicht erlernt werden. Für ein Kind ist es
einfacher. Wenn es versucht, andere mit einer Äußerung zu einer bestimmten Handlung zu bewegen,
erkennt es zumeist, ob das erfolgreich war. Wenn aber im Gegensatz dazu ein System lernen soll,
sprachliche Äußerungen zu verarbeiten, und wenn es immer nur mit Anfragen nach Informationen
konfrontiert ist, erkennt nur die Person, die die Frage gestellt hat, ob ihr die Antwort genügt, nicht
aber unbedingt das System. Die Verarbeitung von einer natürlichen Sprache ist auch aus weiteren
Gründen recht tückisch. In jeder Kommunikation können beispielsweise Wörter auftreten, die sehr
selten sind, so dass sie im antrainierten Sprachmodell nicht oder nur unzureichend abgebildet sind.
Als Menschen verfügen wir über Techniken, die wir dann anwenden können. Systeme wie Siri, Alexa
etc. verfügen noch nicht über diese Techniken. Vielleicht stellt die Entwicklung und Bereitstellung
solcher Techniken aber den von Ihnen genannten Schlüssel dar. Wenn die kommunikative
Verständigung jedoch nicht (nur) an einer lexikalischen Lücke im Sprachmodell scheitert, sondern an
fehlendem Weltwissen, könnte auch die Nutzung von Ontologien einen Schritt in Richtung einer
erfolgreichen Kommunikation darstellen. Ich denke, die Lernfähigkeit der Systeme ist noch nicht
ausgereizt, und ich denke auch, dass die Kombination von Methoden sinnvoll ist.
BE: D.h. können wir immer noch nicht über mögliche Fortschritte in den klassischen formalen Logiken
sprechen, die mit unscharfem Wissen wirklich selbstständig umgehen und selber richtige
Schlussfolgerungen ziehen können. Sehen Sie in Maschinellem Lernen und Deep Learning in dieser
Form nur eine verbesserte Version von Neuronalen Netzen?
US: Es gibt Verfahren, die auch mit unscharfem Wissen arbeiten, etwa in der Sensordatenfusion.
Dort werden unscharfe Sensordaten sehr erfolgreich aggregiert. Für diese Verfahren müssen aber die
Unschärfen in Form von Zahlen vorliegen. Wenn Sie aber Unsicherheit in der sprachlichen
Kommunikation erfahren, müsste zur Anwendung dieser Verfahren diese Unschärfe quantifiziert
werden. Wenn ich zum Beispiel sage: „Der Schlüssel hängt wohl an seinem Haken“, für wie hoch
würden Sie die Wahrscheinlichkeit einschätzen, dass der Schlüssel tatsächlich dort hängt?
BE: Eigentlich nicht wirklich hoch, allein deswegen, weil dabei das Adverb wohl verwendet und damit
hier eine gewisse Unsicherheit vom Anfang an doch nicht ausgeschlossen wird. Ich würde sogar
intuitiv sagen, die Wahrscheinlichkeit, dass der Schlüssel an seinem Haken liegt, beträgt in diesem
Fall höchstens 50%. Diese Wahrscheinlichkeit kann sich aus meiner Sicht jedoch erhöhen oder
vielleicht doch verringern, je mehr ich diese Person, ihre Arbeitsweise/Gewohnheiten und das
entsprechende Umfeld kenne. Ich kann mir aber vorstellen, diese Sicherheit/Unsicherheit, die ich als
Mensch intuitiv erfassen und bis zu einem gewissen Grad sogar in Zahlen leicht ausdrücken kann, für
die Maschinen sicherlich nicht so leicht quantifizierbar wäre.
US: Dem kann ich nur zustimmen, evtl. mit der Abweichung, dass ich die Wahrscheinlichkeit höher,
etwa mit 60% einschätzen würde. Aber wie Sie richtig ausgeführt haben, kann sich die Einschätzung
ändern, wenn man mehr über den situativen Kontext weiß. In jedem Fall stimme ich zu, dass für ein
System das Problem darin liegt, dass es ein Wissen über die Welt und über den situativen Kontext,
welches wir für unsere Einschätzungen ausgewertet haben, wenigsten zum Teil nicht repräsentiert
hat. Die Beantwortung der Frage nach dem möglichen Fortschritt hängt somit auch damit zusammen,
ob es gelingen kann, solches Wissen über den menschlichen Alltag in einem System so zu
repräsentieren, dass es nutzbar wird. Dies ist vielleicht mit einer Art „Deep Learning“ möglich. Zu
„Deep Learning“ würde ich, an Ihre vorherige Frage anschließend gerne noch sagen, dass es aus
meiner Sicht natürlich auf den Erkenntnissen beruht, die wir ausgehend von Frank Rosenblatts
Perceptron – Rosenblatt, Frank (1958): The perceptron: a probabilistic model for information
storage and organization in the brain. Psychological Reviews 65 (1958) 386-408 – über die
sogenannten Neuronalen Netze angehäuft haben. Im Vergleich zu den 1980er-Jahren (Error
Backpropagation und RNNs) haben wir schnellere Rechner, sehr viel mehr Daten, auf denen die
Lernverfahren aufsetzen können, aber mit den neueren Arbeiten, etwa von Geoffrey Hinton, auch
algorithmische Fortschritte.
BE: Sie hatten gesagt, dass man unterschiedliche Verfahren kombinieren sollte, um zu weiteren
Fortschritten zu gelangen. Wir haben dann über „Deep Learning“ gesprochen, die man zu den
statistik-basierten Verfahren zählen kann. Ich würde nun gern noch kurz auf die andere Seite der
Kombination eingehen, auf die regel-basierten Verfahren und auf Ontologien, in denen Wissen
formal repräsentiert wird. Man hört in letzter Zeit öfters neben Triple-Stores für diese
Repräsentation auch von Quadrupelstores, in dem nicht nur Triples, sondern für jedes Tripel
zusätzliche Metadaten wie Zeitbereichsinformationen etc. gespeichert werden können. Was halten
Sie von Quadrupeln anstatt von Tripeln? Finden Sie die Quadrupel möglicherweise noch flexibler und
ausdrucksstärker? Glauben Sie, dass Triple Stores langfristig durch Quadrupelstores doch obsolet
werden?
US: Ein Tripel ist letztlich eine Kombination aus einem „Subjekt“, einer „Relation“ und einem
„Objekt“. Solche Relationen sind für die Repräsentationen von Wissen außerordentlich nützlich.
Nehmen wir einmal die Aussage „Berlin ist die Hauptstadt von Deutschland“, so wird klar, dass wir als
Menschen unbewusst ein „jetzt“ hinzufügen. In manchen Kontexten kann aber eine explizite zeitliche
Verortung nützlich sein, welche man, wie Sie ja andeuten, über Quadrupel realisieren könnte. Ich
möchte hier aus sprachlicher Sicht argumentieren, dass eine flexiblere Repräsentation
möglicherweise sinnvoll ist. Aus einer formalen linguistischen Sicht heraus, kann man die meisten
sprachlichen Aussagen (Sätze) mit einer kontextfreien Grammatik generieren. Kontextfreie
Grammatiken lassen sich auf die Chomsky-Normalform bringen, die neben Regeln zur Ersetzung
eines nichtterminalen Symbols durch ein terminales Symbol Produktionsregeln der Form „A-->BC“
enthalten. Diese Regelform entspricht der Repräsentation durch Tripel. Die Frage ist nun, ob die
Repräsentation durch Tripel nicht nur theoretisch immer möglich, sondern für eine spezifische
Anwendung auch angemessen ist. Ich kann versuchen, auch das an sprachliche Aussagen zu
erläutern. Sprachliche Aussagen enthalten Relationen, aber unterschiedliche Anzahlen von
Argumenten. „Es schneit“ kann nicht einfach so als Standardtripel dargestellt werden. Bei „Maria
lacht“ kann man „Maria“ als Subjekt repräsentieren, wobei dann aber das Objekt fehlt. Als Sprecher
der samoanischen Sprache jedoch würden Sie in „Maria“ das Objekt von „lacht“ sehen, wobei dann
das Subjekt fehlt. Bei komplexeren Sätzen, etwa treten zahlreiche Konstituenten, nicht nur
Zeitangaben, auf, die Sie dann auch irgendwie repräsentieren müssen. In dem Satz „The company
advanced from Wilderness Church via Dowdall’s Tavern towards Chancellorsville” gibt es etwa drei
Konstituenten, über die die durchgeführte Bewegung geographisch und nicht zeitlich präzisiert wird.
Es wäre zu diskutieren, wie das geeignet repräsentiert werden kann bzw. für welche Anwendungen
Tripel bzw. Quadrupel eine geeignete und angemessene Repräsentationsform darstellen und für
welche sie unpraktisch und irreführend sind.
BE: Stellen die Ontologien Ihrer Meinung nach eine der elegantesten Lösungen für die
Suchmaschinen dar? Können viele Probleme der Suche durch die Verwendung von Ontologien
tatsächlich viel einfacher und effizienter gelöst werden? Glauben Sie, dass die Zukunft der Suche in
der semantischen Suche mit Ontologien liegt?
US: Auch dies ist eine Frage der Anwendung. Man muss sich zunächst die Frage stellen, wofür die
Suche genutzt werden soll. Sollen etwa bei einem vorgegebenen Begriff Webseiten gefunden
werden, die sich auf das beziehen, was der Begriff denotiert, so kann es genügen, wenn auch die
Vorkommen von Synonymen und Hyponymen (Unterbegriffe) zu dem vorgegebenen Begriff
gefunden werden. In dem Fall benötigt man keine vollständige Ontologie des betreffenden
Gegenstandsbereichs, sondern „nur“ eine Taxonomie dazu, deren Erstellung weniger Aufwand
erfordert.
BE: Im Kapitel 16 „Ontologien als Schlüsseltechnologie für die automatische Erzeugung
natürlichsprachlicher Texte“ des Buchs Corporate Semantic Web stellen Sie auch dar,
wie semantische Technologien in den Bereichen SEO und
automatische Textgenerierung angewendet werden können. Glauben Sie, dass man gerade in diesen
Bereichen in den nächsten Jahren mit steigendem Einsatz der semantischen Technologien rechnen
kann?
US: Ja. Mein Kollege und Freund Hermann Bense zeigt mit seiner Firma textOmatic, wie gut die
automatisierte Textgenerierung schon gelingen kann, selbst für eine Sprache wie Deutsch ☺, wenn
es darum geht, strukturiert vorliegende Informationen sprachlich auszudrücken. Sie können dies
jederzeit ansehen, da textOmatic die Online-Seite von Focus automatisiert erstellte und stets sehr
aktuelle Wetterberichte und der Online-Seite des Handelsblatts ebenso aktuelle Börsenberichte zur
Verfügung stellt. Um die Qualität dieser Berichte noch zu verbessern, benötigt man semantische
Technologien. Aber das im Detail zu erläutern würde wohl ein weiteres Interview ergeben.
BE: Also können wir zusammenfassend sagen, dass die semantische Interpretation der natürlichen
Sprachen für die Maschinen auch zukünftig eine echte Herausforderung ist und bleibt, ganz zu
schweigen von der Interpretation von menschlichen Emotionen, welche spätestens mit Internet of
Things (IoT) sicherlich noch mehr an Bedeutung gewinnen wird. Außerdem haben wir uns hier
nochmals klargemacht, neben Technologien wie „Maschinelles Lernen“ und „Deep Learning“ wie
aktuell immer noch „Ontologien“ sind und zwar für die Zukunft unserer Gesellschaft und das
zukünftige Web nämlich Semantic Web. Sehr geehrter Herr Prof. Schade, ich bedanke mich bei Ihnen
im Namen unserer Arbeitsgruppe Semantic Web vielmals für dieses ausführliche und nette Gespräch.
ÜBER
Apl. Prof. Dr. Ulrich Schade studierte Mathematik (Diplom, 1986) und Linguistik (Promotion, 1990.
Habilitation für Computerlinguistik und Psycholinguistik, 1996). Nach Lehrstuhlvertretungen in
Bielefeld und Stuttgart arbeitet er seit 2002 als Forschungsgruppenleiter für Informationsanalyse am
Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie. Daneben lehrt er
an der Rheinischen Friedrich-Wilhelms-Universität im Bereich „Applied Linguistics“. Er ist Autor von
zahlreichen wissenschaftlichen Artikeln. Auch im Buch Corporate Semantic Web
veröffentlichte er zwei hochinteressante Beiträge direkt aus der Praxis:
Semantische Suche im Bereich der Energieforschungsförderung (U. Schade, H. Bense, M. Dembach, L.
Sikorski) und Ontologien als Schlüsseltechnologie für die automatische Erzeugung
natürlichsprachlicher Texte (U. Schade, H. Bense).
Marktstudie:
Welche Standards und Tools werden in Unternehmen eingesetzt?
Book Chapters
Börteçin Ege, Februar 21, 2016
Im Fokus dieses Beitrags Marktstudie: Welche Standards und Tools werden in Unternehmen eingesetzt? (B. Ege) stehen Semantic Web Projekte,
die für den Einsatz in verschiedenen Bereichen entwickelt wurden. Der Beitrag wurde im Buch
Corporate Semantic Web (Hrsg. B. Ege et al., Springer, 2015) veröffentlicht.
Die meisten der im Beitrag dargestellen Semantic Web Projekte sind bereits in der Produktion, d.h. reale Anwendungen mit echten Nutzern.
Auf die Kundenanforderungen für jedes Projekt folgen dann auch die dazugehörigen technischen Lösungen bzw. die Architektur der Anwendungen und anschließend die bisherigen Erfahrungswerte der Firmen im Umgang mit
verwendeten Semantic Web Standards und Tools. Gegen Ende des Beitrags erwartet den Leser die Ergebnisse einer Umfrage mit weiteren Tipps und Hinweisen, dann ein Ausblick und zum Schluss eine Liste von aktuellen
Semantic Web Standards und Tools. Die Darstellung von insgesamt vier Semantic Web Projekten und die Ergebnisse einer Umfrage im Rahmen dieses Beitrags geben einen kleinen Einblick in die Welt der Hersteller von Semantic Web-Anwendungen.
Die einzelne Beschreibungen der Kundenanforderungen in Projekten, die dazugehörigen technischen Umsetzungen wie die entwickelten Architekturen, verwendete Standards, und Tools,
sowie konkrete Umsetzungshinweise erweitern den Horizont der Leser zusätzlich.
Einige Ergebnisse der Marktstudie
- SKOS ist meistens die erste Wahl bei der Erstellung von Thesauri.
- Semantic Web Anwendungen beginnen, in der Industrie in verschiedenen Bereichen Fuß zu fassen.
- W3C Standards genießen sowohl bei den Software-Herstellern als auch bei Kunden eine hohe Akzeptanz.
- Hybride Semantic Web-Anwendungen sind die de facto Standard-Lösungen, da ein sehr großer Anteil der Daten immer noch in relationalen Datenbanken gespeichert ist.
- Die Bedeutung von semantischen Technologien werden in Zukunft sowohl im Bereich Big Data als auch in der Industrie 4.0 zunehmen, da sie die Integration und somit die Interoperabilität vereinfacht.
Artikel zum Herunterladen
Lotico CSW - The Berlin Semantic Web Meetup
Semantic Events
Börteçin Ege, Februar 21, 2016
BUCHVORSTELLUNG
CORPORATE SEMANTIC WEB - Wie semantische Anwendungen in Unternehmen Nutzen stiften
Freie Universität Berlin, Computer Science Department
Corporate Semantic Web Group
Königin-Luise-Str. 24/26, 14195 Berlin
30. März 2016, 18:15 Uhr
Was bedeutet das Corporate Semantic Web? Was bedeutet eine semantische Anwendung? Wie und womit wird es erstellt? Welche Standards und Tools werden eingesetzt? Und vor allem: Warum gibt es eigentlich kaum Literatur zu Corporate Semantic Web Anwendungen?
Semantic Web ist keine Zukunftsmusik mehr, und dass es bereits solche Anwendungen gibt, wissen wir aus eigener Projekterfahrung. Zum einen gibt es bereits zahlreiche solcher Anwendungen; zum anderen suchen viele nach Hinweisen, Tipps und Tricks
zur Entwicklung derselben. Aber trotz der hohen Aufmerksamkeit für Themen rund um das Semantic Web, trotz vieler Artikel und Bücher zu Grundlagen, Standards, Werkzeugen und Visionen, gibt es
kaum Literatur, die Architekten, Projektleiter, Ontologie-Modellierer oder Entwickler semantischer Anwendungen bei ihrer Arbeit unterstützt. So war die Idee zum Buch
Corporate Semantic Web geboren.
Mit unserem Buch möchten wir den Blick weiten und auch semantische Anwendungen einbeziehen, die in Organisationen aller Art eingesetzt werden. Es geht also um reale Anwendungen für relevante Anwendungsfälle mit echten Anwendern.
Vorgestellt werden Anwendungen aus verschiedenen Branchen wie Telekommunikation, Logistik, Energie, Medizin, Verlagswesen sowie eine Marktstudie. Die Teilnehmer erhalten somit einen umfassenden Überblick über die Einsatzbereiche des Semantic Web
sowie konkrete Umsetzungshinweise für eigene Vorhaben. Im Rahmen des Meetups stellt Börteçin Ege sein Buchprojekt vor.
WORKSHOP 2016
CORPORATE SEMANTIC WEB
Semantic Events
Börteçin Ege, Februar 07, 2016
Nachfolge-Workshop zum Buchprojekt Corporate Semantic Web
Juni 12-15, 2016, Leibniz-Zentrum für Informatik, Deutschland
 |
Foto: Schloss Dagstuhl - Leibniz-Zentrum für Informatik |
Ziel der Workshop-Reihe „Corporate Semantic Web“ ist die Entwicklung und Diskussion einer Buchreihe, die Anwendungen, Anwendungsaspekte und den Nutzen semantischer Technologien für Praktiker beschreibt.
Schwerpunktmäßig stehen Arbeiten und Projekte zu Architekturen, Anwendungen und Nutzen semantischer Technologien, die praktischen Einsatz in Organisationen finden, im Vordergrund.
Im Lauf des Dagstuhl Workshops Corporate Semantic Web 2015 zeigte sich, dass ein großer Bedarf an einem Diskussionsforum unter den Teilnehmern existierte.
Diesem Wunsch wollen wir im Rahmen des Workshops 2016 von vornherein Rechnung tragen, um ein weiteres Buch vorzubereiten.
Der 2 ½ tägige Workshop setzt sich daher aus zwei Teilen zusammen:
Mittwoch- und Donnerstagvormittag sind für Präsentationen abgeschlossener Projekte oder von Forschungsergebnissen im Plenum vorgesehen.
Maximal stehen hierfür 10 Slots à 30 Minuten zur Verfügung, von denen maximal 20 Minuten für den Vortrag und 10 Minuten für Diskussionen und Fragen vorgesehen sind.
Auf die Einhaltung der Zeitslots wird großer Wert gelegt. Diese Slots werden nach dem Prinzip „first come first served“ vergeben.
Hierzu ist ein maximal einseitiges Abstract einzureichen, welches den Organisatoren zur Strukturierung der Vormittage dient.
Die Nachmittage der beiden Tage werden in Form eines Bar Camps organisiert, bei dem die Teilnehmer die Möglichkeit haben, die Inhalte nach ihren eigenen Interessen zu gestalten.
Das Bar Camp Format gibt hierfür lediglich die Struktur und den Ablauf vor. Dieser Teil des Workshops ist insbesondere ausführlichen Diskussionen und/oder inhaltlicher Arbeit gewidmet.
Hierbei sollten noch offene Fragestellungen, Diskussionen von Erkenntnissen und Problemen im Vorforschungsstadium, Zwischenergebnissen oder noch nicht abgeschlossener Projekte im Vordergund stehen.
Wie in den Vorjahren wird der Freitagvormittag als Open-Space geplant, dessen Inhalte erst im Rahmen der Vortage festgelegt und strukturiert werden.
Weiterlesen...
Ablauf des Minibar Camps
13:30 – 14:30 Themenvorstellung und Auswahl (Plenum)
14:30 – 15:30 Vier parallele Sessions (in vier Räumen, mit Flip Charts und Meta-Plan Koffer)
15:30 – 16:00 Kaffeepause
16:00 – 17:00 Vier parallele Sessions
17:00 – 18:00 Tagesreview (Plenum)
Ablauf Plenum:
- Teilnehmer, die Interesse haben, eine Session zu gestalten, stellen im Plenum bis zu max. 3 Sessioninhalte in wenigen Sätzen vor (max. 2 Min.)
- Sofern mindestens 5 weitere Teilnehmer Interesse an dem Sessionthema bekunden, wird diese Session in den Tagesplan aufgenommen
- Sessions, für die sich zu wenige Teilnehmer finden, können ebenso wie Sessions mit starkem Interesse am folgenden Tag erneut eingebracht werden
Ablauf Session:
- Kurze Präsentation des Sessioninhalts, max. 10 Min. oder 5 Folien
- Diskussion, inhaltliche Arbeit etc.
- Dokumentation der Ergebnisse auf einem Flipchart, welches auch für Außenstehende verständlich sein sollte
- Vorstellung der Ergebnisse durch den Session-Owner im Plenum
Corporate Semantic Web Workshop-Serie ist eine herstellerunabhängige Plattform.
Über Schloss Dagstuhl
»Schloss Dagstuhl - Leibniz-Zentrum für Informatik GmbH« ist das weltweit anerkannte Begegnungszentrum für Informatik. Hier treffen sich international führende Spitzenforscher, viel versprechende Nachwuchswissenschaftler und Praktiker,
um sich über ihre aktuelle Forschung auszutauschen. Schloss Dagstuhl lädt das ganze Jahr über Wissenschaftler aus aller Welt ins nördliche Saarland ein, um über neueste Forschungsergebnisse in der Informatik zu diskutieren.
IBM Watson
HighTech News
Börteçin Ege, Januar 7, 2016
Von Deep Blue zum IBM Watson
Vor zwanzig Jahren (1996) gelang es IBM Deep Blue als erstem Computer, den damals amtierenden Schachweltmeister Garry Kasparov in einer Partie zu besiegen.
Ein Jahr danach schaffte es Deep Blue sogar, gegen ihn einen ganzen Wettkampf aus sechs Partien zu gewinnen. Dabei war Deep Blue eigentlich nicht so intelligent, wie es damals vielleicht von vielen angenommen wurde.
Er war keinesfalls lernfähig, und seine Erfolge beruhten größtenteils auf sehr hohen Verarbeitungsgeschwindigkeiten durch Parallel Computing.
Diese Serie von Siegen gegen Kasparov war jedoch das erste Zeichen, dass der sog. „AI-Winter“ nach langen Jahren endlich vorbei war.
Deep Bluess Nachfolger steht eigentlich seit 2011 fest: IBM Watson. Der nach dem ersten Präsidenten von IBM (Thomas J. Watson) benannte Supercomputer wurde als Teil des Forschungsprojektes DeepQA entwickelt.
Seine Berühmtheit erlangte Watson jedoch erst 2011, nachdem er sich bei der US-Quizshow „Jeopardy!“ gegen seine zwei menschlichen Mitstreiter durchsetzte und aus dem Rennen als klarer Sieger hervorging.
Watson ist in der Lage, in nur 15 Sekunden die Akten von einer Million Krebspatienten miteinander zu vergleichen, 10 Millionen Wirtschaftsberichte und 100 Millionen Benutzeranleitungen einzulesen und zu bewerten,
um anschließend diesbezügliche Fragen sofort zu beantworten.
Watson besteht hardwaremäßig aus 90 IBM Power 750 Servern mit insgesamt 16 TB RAM (16.000 GB). Das Herz eines jeden Servers ist ein POWER 7 Prozessor (3,5 GHz) jeweils mit 8-Kern, wobei jeder Kern die Fähigkeit hat,
bis zu 4 Threads parallel auszuführen. Somit ist Watson in der Lage, bei Bedarf insgesamt bis zu 2880 Threads gleichzeitig auszuführen. Die Softwareengine von Watson ist IBM DeepQA.
Sie läuft bei Watson auf dem Betriebssystem SUSE Linux Enterprise Server 11. Weiterlesen...
Watsons Geheimnis
Wie IBM Watson ganz genau funktioniert, weiß wohl kaum jemand. Dies ist nämlich eines der bestgehüteten Geheimnisse von IBM. Man weiß nur, dass das Ziel des Projekts letztendlich ist, eine hochwertige semantische Suchmaschine zu schaffen,
die möglichst auch selbstlernfähig ist. Dabei setzt Watson auf insgesamt mehr als 100 verschiedene Such-, Lern- und NLP-Techniken, um ihm gestellte Fragen zu verstehen und zu beantworten.
Watsons Wissensquellen bestehen insbesondere aus Enzyklopädien, Datenbanken, literarischen Werken, Taxonomien und Ontologien. Wie von IBM mitgeteilt wurde, bestand Watsons Wissensschatz aus 200 Millionen strukturierten und unstrukturierten Dokumenten
(4 TB), als er bei der US-Quizshow „Jeopardy!“ 2011 seinen ersten Sieg gegen einen Menschen erringen konnte.
Von der Von-Neumann-Architektur zur Data-Centric Architekturen
Ein sehr großer Teil von heutigen programmierbaren Computern wie PCs, aber auch Watson beruhen auf der Von-Neumann-Architektur.
In dieser von John von Neumann in den 40er Jahren entwickelten Architektur müssen jedoch Daten und Befehle dauernd zwischen Speicher und Mikroprozessoren transferiert werden, was aber im „Big Data“-Zeitalter nichts anderes
als reine Zeit- und Energieverschwendung bedeutet und oft im Engpass endet (Von-Neumann-Flaschenhals). Daher müssen langfristig neue „Data-Centric“-Architekturen entwickelt werden, in denen Daten im Brennpunkt von Systemen stehen,
aber nicht unbedingt im ganzen System dauernd hin- und hergeschoben werden. Ein wunderbares Vorbild aus der Natur ist bereits vorhanden und zwar das menschliche Gehirn. Das Gehirn vermeidet es nicht nur,
die Daten während einer Verarbeitung in diesem Ausmaß hin und her zu transferieren, es verbraucht auch nur einen Bruchteil der Energie (nur 20 Watt), die die modernen Computer benötigen (hochparallele und massiv verteilte Verarbeitung).
Hinzu kommt die Lernfähigkeit des Gehirns, die aktuell das Thema von einigen neurowissenschaftlichen Forschungsprojekten wie „BRAIN Initiative“ (USA) und „Human Brain Projekt“ (EU) sind.
Durch diese Großforschungsprojekte sollen bald nicht nur das Gehirn des Menschen kartiert werden, sondern auch die sämtliche Aktivitäten von 100 Milliarden Nervenzellen des Gehirns erfasst und letztendlich das menschliche Hirn
durch Simulationen und computerbasierten Modellen nachgebildet werden. Die dadurch gewonnenen Ergebnisse sollen dann der Medizin und der Computerwissenschaften zur Verfügung gestellt werden.
Erwartet werden dadurch nicht nur neue Medikamente, sondern große Fortschritte in Roboter- und Computertechnologien, insbesondere in lernfähigen Computersystemen.
Optische Computertechnologie
Wie meine Leser bereits vermuten werden, heißt hochparallele und massive verteilte Verarbeitung durch „Data-Centric“-Architekturen noch lange nicht, dass Daten in einem Computersystem gar nicht transferiert werden müssen.
Hinzu kommt, dass das zu verarbeitende Datenvolumen jedes Jahr steigt und steigt. Das bedeutet wiederum, dass langfristig nicht nur die Verarbeitungsweise des Wissens, sondern auch Computer selbst hardwaremäßig einer radikalen Veränderung unterzogen werden müssen.
Denn elektronische Computer bzw. auf elektronenbasierte Computer und deren Komponenten sind schlicht und einfach nicht mehr zeitgerecht. Sie passen nicht zu der Verarbeitungsweise des Wissens in heutigen Computern.
Der aussichtsreichste Kandidat für diese Veränderungen ist der optische Computer, der statt auf Elektronen auf Photonen basiert. Im Gegensatz zu elektronischen Computern bieten optische Computer eine sehr hohe Bandbreite und sehr hohe Übertragungsgeschwindigkeiten.
Dadurch können selbst sehr große Datenmengen fast mit Lichtgeschwindigkeit übertragen werden, ohne dabei ein hoher Energiebedarf entsteht. Ein großer Teil der Komponenten, die für den Bau eines optischen Computers notwendig sind, ist bereits entwickelt
und reif für die Serienproduktion.
Quo Vadis?
Mit Watson möchte die IBM, die auch der Schöpfer heutiger PCs ist, den Begriff Computer nochmals definieren, und zwar dieses Mal aus der Sicht von „Cognitive Computing“. Watson ist zwar teilweise ein lernfähiges System,
kann jedoch weder kreativ sein noch neues Wissen schaffen. Er ist aber ein großer und bedeutender Schritt in diese Richtung, für dessen Weiterentwicklung neue Software- und Hardware-Technologien
(semantische Technologien und optische Computertechnologie), neue Daten-Verarbeitungsmethoden (nach dem Vorbild des menschlichen Gehirns), und neue Architekturen (Data-Centric) sicherlich berücksichtigt werden müssen.
Trotz des guten Starts gibt es daher in diesem Bereich noch sehr sehr viel zu tun...
Quelle: IBM Watson (IBM Watson), Ege B., TÜBİTAK Bilim ve Teknik, S.74-79, November 2015
China ist Nr. 1 in Supercomputing
HighTech News
Börteçin Ege, Oktober 29, 2015
Titan seit zweieinhalb Jahren hinter Tianhe-2
Der harte Kampf um den schnellsten Supercomputer der Welt geht ununterbrochen weiter. Der Sieger steht jedoch seit zweieinhalb Jahren trotzdem fest: Tianhe-2 (China).
Daran hat sich auch bei der letzten International Supercomputer Conference in Frankfurt/Main nichts geändert. Der von chinesischen Ingenieuren gebaute Supercomputer Tianhe-2
hat auch in Juni 2015 das Rennen gemacht und landete vor seinen amerikanischen und japanischen Konkurrenten wieder an der Spitze der Top500-Liste gefolgt
von Titan (Cray Inc./USA), Sequoia (IBM/USA), K Computer (Fujitsu/Japan), Mira (IBM/USA), Piz Daint (Cray Inc./Schweiz), Shaheen II (Cray Inc./Saudi Arabia),
Stampede (Dell/USA), JUQUEEN (IBM/Deutschland) und Vulcan (IBM/USA). Weiterlesen...
Obwohl acht der schnellsten zehn Supercomputer der Welt von Amerikanern (Cray Inc., IBM, Dell) gebaut wurden, schaut die Lage für diese nicht rosig aus.
Unabhängig davon, was sie tun, sie können den chinesischen Supercomputer Tianhe-2 seit zwei eineinhalb Jahren nicht von seinem Thron stoßen.
Diese Entwicklung muss auch dem US-Präsident Obama aufgefallen sein: Er hat vor kurzem das Problem zur Chefsache erklärt und höchst persönlich die Entwicklung
eines Supercomputers neuer Generation in Auftrag gegeben, der mindestens 30 Mal schneller laufen soll als Tianhe-2. Das einzige Problem dabei ist, niemand weiß,
wann ein solcher Computer fertig entwickelt sein könnte.
Supercomputer werden in der Industrie in verschiedensten Bereichen eingesetzt, für die Erstellung von ökonomischen Risikoanalysen und Wettervorhersagen ebenso wie zur Kryptologie und zur Entwicklung neuer atomaren Waffen.
Außerdem werden sie auch in der Medizin und Pharmazie genutzt, um den Aufbau von DNA und Proteinen zu entschlüsseln.
Einige Fakten (Juni 2015)
- 80,4% der schnellsten 500 Supercomputer der Welt befinden sich in North Amerika, in Fernost und Westeuropa.
- 86,6% der Top 500 Supercomputer werden für militärische und nachrichtendienstliche Zwecke eingesetzt.
- 97,6% der Top 500 Supercomputer werden mit Linux OS betrieben.
Quelle: Çin, Dünyanın Süper Bilgisayar Gücü (China is the Nr.1 in Supercomputing), Ege B., TÜBİTAK Bilim ve Teknik, S.58-63, September 2015
Was bedeutet „Semantic Web“?
Semantic News
Börteçin Ege, September 20, 2015
„Semantic Web“ ist die nächste Generation des Internets, die nicht nur für Menschen, sondern auch für die Maschinen verständlich ist.
Die heutige Version des Webs, das Web 2.0, ist genauso textbasiert, wie sein Vorgänger Web 1.0, welches sogar nur aus Dokumenten bestand und nicht interaktiv war.
Heute, also fast 15 Jahre nach der Einführung des „modernen Webs“, ist der Erfolg einer Suche im Web immer noch weit davon entfernt, wie es eigentlich sein sollte.
Einer der wichtigsten Verantwortlichen dieses Chaos ist die Textbezogenheit, die das Web vom Anfang an beherrscht hat.
So können Inhalte im Web, wenn überhaupt nur von Menschen interpretiert und verstanden werden und nicht von Maschinen, die als Folge die Menschen nicht adäquat bei der Nutzung des Webs unterstützen können.
Dies gilt insbesondere für die Suche im Web. Das Ergebnis einer Suche sind meistens Millionen von Einträgen, solche, in denen die vom Anwender für die Suche genannten Schlüsselwörter vorkommen.
Der Mensch kann nicht alle diese Suchergebnisse auswerten. Besser wäre es, wenn die Suche nur wenige, aber dafür relevante Treffer zurückgeben würde. Dafür ist „Semantic Web“ die richtige Antwort.
Mit Hilfe von semantischen Technologien können Maschinen die Bedeutungen von Inhalten interpretieren, die Zusammenhänge aus dem Kontext ableiten
und somit die Suchmaschinen in „Antwortmaschinen“ umwandeln. Weiterlesen...
Gibt der Benutzer in die Suchmaske bspw. ein „Wann ist die beste Reisezeit in Südafrika für Safaris?“, bekommt er nur sinnvolle Antworten, solche, die tatsächlich auf die besten Safari-Reisezeiten in Südafrika hinweisen.
Semantic Web Technologien setzen jedoch – ganz anders als im heutigen Web – eine strukturierte Umgebung voraus, in denen Begriffe und Informationen annotiert sind, sodass sie auch von Maschinen interpretiert werden können.
Manche semantische Anwendungen gibt es bereits. Sie werden in verschiedenen Branchen von der Telekommunikation, Logistik, Energie, Medizin bis hin zu Tourismus, Bibliotheks- und Verlagswesen seit Jahren auch sehr erfolgreich eingesetzt.
Vergleiche für mehr Information über solche Anwendungen das Buch Corporate Semantic Web (Hrsg.: B. Ege et al., Springer-Verlag, 2015).
Silicon Valley
HighTech News
Börteçin Ege, Juli 07, 2015
Die neue Haupstadt der Welt: Silicon Valley
Bekanntlich ist Silicon Valley (San Francisco) bereits die Welthauptstadt der Elektronik- und Software-Industrie.
Es ist vielleicht nicht so berühmt wie Wall Street. Doch wird das bald ändern.
Sowie es aber jetzt ausschaut, wird Silicon Valley das berühmte Finanzzentrum Wall Street vom Thron stoßen und auch die Welthauptstadt der Finanzwelt werden.
Die Helden von Silicon Valley sorgen dafür: Sie möchten gerne unsere Welt und unseren Lebensstil ändern...
Zu diesen Helden gehören nicht nur etablierte Chefs wie Mark Zuckerberg (Facebook), Jeff Bezos (Amazon), sondern auch neue Gesichter
wie Travis Kalanick (Uber), Elon Musk (Tesla Motors, SpaceX) und Joe Gebbia (Airbnb). Weiterlesen...
Oft sind sie miteinander stark vernetzt sogar befreundet. Jeder von denen hat ein anderes Geschäftsfeld und Interessen, jedoch das gleiche Ziel: Die Welt ändern, und das baldmöglichst.
Dafür arbeiten sie auch hart. Sie sind echte Verfechter von Hightech insbesondere der Künstlichen Intelligenz.
Konkurrenz ist für sie fast ein Fremdwort; sie sind vielmehr von Monopolen begeistert.
Sie glauben daran, dass Computer bald den Turing-Test bestehen und fast alles besser schaffen werden als Menschen.
Sie glauben daran, dass in Silicon Valley gegründete Firmen, die mit einer neuen Methodik arbeiten, in zehn Jahren jeweils eine Milliarde Kunden gewinnen und somit auch die Weltwirtschaft beherrschen können.
Die meisten von denen glauben leider auch daran, dass der Mensch durch Computer ersetzbar wäre...
Einige interessante Zitate von Silicon Valley Chefs:
Urlaub kann tödlich sein (Elon Musk's Urlaubseinstellung nach einer Krankheit in einem Urlaub).
Ihr werdet bald sowieso durch fahrerlose Autos ersetzt (Travis Kalanick's Antwort auf Taxifahrer, die ihn nach einer etwas höheren Zahlung forderten).
In Silicon Valley gegründete Firmen können mit Hilfe einer neuen Methodik in zehn Jahren rund um den Globus eine Milliarde Kunden gewinnen
und somit auch die Weltwirtschaft beherrschen. Daher werden fast 40% von den 500 größten Unternehmen der Welt bis 2025 ihre Bedeutung am Weltmarkt verlieren (Raymond Kurzweil, Silicon Valley's Ideologe).
Quelle: Dünyanın Yeni Başkenti: Silisyum Vadisi (World’s New Capital City: Silicon Valley), Ege B., TÜBİTAK Bilim ve Teknik, S.74-78, Juni 2015
Battle Management Language (BML)
Semantic News
Ein Beitrag von Ulrich Schade und Börteçin Ege, Juni 20, 2015
Führung von heterogenen Mehrrobotersystemen mittels Battle Management Language
Ontologien finden nicht nur in Unternehmen, sondern auch in militärischen Bereichen Anwendungen.
Ein gutes Beispiel dafür ist die Battle Management Language (BML) eine formale Sprache ohne Mehrdeutigkeiten, aber mit großer Ausdrucksstärke.
BML wurde im Rahmen der NATO (vgl. Coalition Battle Management Language) entwickelt
und von der Simulation Interoperability Standards Organization als Standard anerkannt.
Die Sprache BML stützt sich ab auf das NATO-Datenmodell JC3IEDM, welches als Fachontologie für militärische Operationen angesehen werden kann
und über welches die in BML verwendeten Terme (Wörter) in ihrer Bedeutung festgelegt sind. Das bringt viele Vorteile mit. Durch Verwendung von BML können bspw. in militärischen Bereichen alle Systeme
(unbemannte Systeme, Simulationssysteme und Command & Control Systeme) die in BML formulierten Befehle und Meldungen inhaltlich „verstehen“ bzw. verarbeiten und nutzen.
Außerdem kann BML in multinationalen Operationen als Lingua Franca zwischen den beteiligten Organisationen genutzt werden,
um Interoperabilität zwischen verschiedenen Organisationen zu erhöhen. Weiterlesen...
Die derzeit wichtigste Anwendung der BML ist die Befehligung von simulierten Einheiten und unbemannten Systemen aus einem Command & Control System (C2-System) heraus.
Dadurch lassen sich Simulationssysteme etwa in der Ausbildung von Offizieren nutzen, wobei die auszubildenden Offiziere ihre (simulierten) Truppen über ihr C2-System führen,
ganz so wie sie auch reale Einheiten führen. Ein weitere Anwendung stellt die Befehligung von Mehrrobotersystemen mittels BML dar.
Aus BML kann auch eine zivile Variante entwickelt werden, die sich für die Kommunikation in Einsätzen der zivilen Sicherheit eignet, um die Interoperabilität zwischen den beteiligten Organisationen
(Polizei, Feuerwehr, THW, Militär, weitere NGOs) zu erhöhen und die Einbindung von den unterschiedlichen Führungs- und Logistiksystemen dieser Organisationen zu optimieren.
Auf der Homepage von Fraunhofer FKIE können Sie über BML mehr erfahren und sich auch ein Video anschauen, wie BML-Befehle von Robotern umgesetzt werden.
Das Video wurde 2013 auf dem Gelände der Bundeswehr in Hammelburg gedreht. Es zeigt, wie mit der Hilfe einer GUI Befehle in BML eingegeben werden können und wie diese von einem Team Unbemannter Systeme
umgesetzt werden.
Peter Norvig: Machine Learning
HighTech News
Börteçin Ege, Mai 08, 2015
Peter Norvig's Vortrag an der TU Wien am 26. März 2015
 |
Der US-Amerikanischer Wissenschaftler Peter Norvig hielt am 26 März im Rahmen von Vienna Goedel Lectures
der Fakultät für Informatik einen Vortrag an der TU Wien. Peter Norvig ist einer der bekanntesten Forscher
im Bereich Künstliche Intelligenz (KI) und seit 2001 Forschungsdirektor
von Google. In seinem Vortrag an der TU Wien berichtete er aus seiner Erfahrungen insbesondere
mit Machine Learning und lernfähigen Computersystemen (Maschinelles Lernen ist ein Softwaresystem,
welches aus Beispielen lernen kann). Er unterstrich in seinem Vortrag auch, dass Machinelles Lernen
eine große Zukunft hat und schon jetzt in der Computer Industrie von IBM Watson, Google, Baidu
bis Yahoo und Facebook eingesetzt wird.
Peter Norvig ist auch der Autor eines der besten und meistverkauften Bücher,
nämlich Artifical Inteligence - A modern Approach (Stuart Russel, Peter Norvig: Künstliche Intelligenz - Ein moderner Ansatz)
Mehr über seine Person und wissenschaftliche Arbeiten finden Sie an seiner Webseite: http://norvig.com/ .
|
Humanoide Roboter bei Airbus im Einsatz
HighTech News
Börteçin Ege, April 15, 2015
Airbus setzt bei der Produktion Humanoide Roboter ein
Airbus, der größte europäische und weltweit zweitgrößte Flugzeughersteller hat in 2014 angefangen, in seinen Werken in Spanien im Rahmen eines wissenschaftlichen
Programms menschenähnliche also humanoider Roboter bei der Produktion von A380 einzusetzen.
Das Ziel ist die Entlastung der Mitarbeiter. Durch die Entlastung von hochqualifizierten Arbeiter plant Airbus die Produktionsgeschwindigkeit zu steigern.
Die humanoide Roboter werden von dem japanischen Roboter Hersteller Kawada produziert.
Auch Boeing, die aktuell für die Flügel-Lackierung von B-777 Roboter verwendet, möchte auch künftig bei der Produktion immer mehr Roboter einsetzen.
|
Quelle: Airbus, A-380 Üretiminde İnsansı Robot Kullanmaya Başladı, Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.8, März 2014 |
Tesla Motors
HighTech News
Börteçin Ege, März 1, 2015
Tesla: Eine Neue Generation von Autos
Tesla ist ein elektrisch betriebenes Auto einer neuen Generation. Die Schöpfer von Tesla sind Martin Eberhard und Elon Musk.
Tesla Motors beschäftigt schon jetzt weltweit über 6000 Leute und besitzt eine der größten und modernsten Fabriken der Welt.
Sie ist zugleich der erste Autohersteller in Silicon Valley. Das neue Modell von Tesla Motors ist Tesla Model S.
Model S hat keinen Motor, sondern der Akku des Autos selbst ist der Motor.
Akkus haben acht Jahre Garantie und können bei Tesla-Ladestationen gratis aufgeladen werden.
Es gibt bei Model S nur zwei Gänge: Vorwärts- und Rückwärtsgang und diese lassen sich nur durch einen Knopfdruck ein- und ausschalten.
Im Cockpit des Autos herrscht wie bei modernsten Flugzeugen die Glass Cockpit Technologie - d.h. alles computergesteuert.
Das ist noch nicht alles: Tesla Model S sprintet von 0 auf 100 km/h nur in max. 3,4 Sekunden!
Zusammengefasst, auch eine Testfahrt mit Tesla ist ein echtes Erlebnis.
Wer wird also das Rennen machen: Wasserstoffautos oder doch elektrisch betriebene?
Quelle: Tesla Elektrikli Otomobilleri (Tesla Electric Vehicles), Ege B., TÜBİTAK Bilim ve Teknik, S.58-63, Februar 2015
WORKSHOP 2015
CORPORATE SEMANTIC WEB
Semantic Events
Börteçin Ege, Februar 02, 2015
Nachfolge-Workshop zum Buchprojekt Corporate Semantic Web
Juni 15-17, 2015, Leibniz-Zentrum für Informatik, Deutschland
Auch dieses Jahr findet ein Workshop zum Thema Corporate Semantic Web statt, welches ein Nachfolge-Workshop zum
Buchprojekt Corporate Semantic Web ist. Unter den Teilnehmern befinden sich ein großer Teil der Mitautoren des Buchs
Corporate Semantic Web, welches in Mai 2015 bei Springer-Verlag erscheinen wird.
Der Workshop findet von 15 Juni bis 17 Juni 2015 im Schloss Dagstuhl (Leibniz-Zentrum für Informatik) in Wadern (Saarland) in Deutschland statt.
Im Workshop sollen semantische Anwendungen besprochen werden, die bereits heute in Unternehmen Nutzen stiften.
Ein weiteres Ziel des Workshops ist es, eine Community von Praktikern zu etablieren, die ihre Erfahrungen in der Entwicklung semantischer Anwendungen
austauschen. Weiterlesen...
Dabei wird für vielfältige Themenstellungen Raum sein, z.B.:
- Wie können Projekte zur Entwicklung semantischer Anwendungen akquiriert und durchgeführt werden?
- Welche Technologien haben sich in der Praxis bewährt, welche nicht?
- Welche methodischen und rechtlichen Fragen sind relevant?
- Wie vermarkten wir unsere Lösungen und Anwendungen erfolgreich?
- Wie zeigen und sichern wir die Qualität unserer Lösungen und Anwendungen?
Corporate Semantic Web Workshop-Serie ist eine herstellerunabhängige Plattform.
Die offizielle Dagstuhl-Webseite zum Workshop (2015)
Anfang der Post-Silizium Ära
HighTech News
Börteçin Ege, Januar 28, 2015
Mooresches Gesetz bald am Ende - Doch was kommt als Nächstes?
Mooresches Gesetz verliert zunehmend seine Gültigkeit. Das macht sich in den letzten Jahren auch an der Leistungsfähigkeit von Computern bemerkbar;
sie werden nicht mehr von Jahr zu Jahr wirklich leistungsfähiger. Darunter leiden sogar auch Supercomputer, insbesondere wenn es um Verarbeitung von Big Data geht.
Das von Gordon Moore vor genau 50 Jahren also in 1965 formuliertes Gesetz besagt, dass sich die Leistungsfähigkeit von Computern spätestens für alle zwei Jahre verdoppeln.
Nun langsam aber sicher wird die Grenzen von Silizium erreicht und somit können nicht mehr noch sehr viel kleinere Transistoren aus Silizium gebaut werden.
Laut Gordon Moore kommt spätestens in den 2020’er Jahren zum erwarteten Flaschenhals. Dies ist auch Anfang der Post-Silizium-Ära.
Danach kann definitiv nicht mehr leistungsfähigere Computer gebaut werden, was möglicherweise zu einer Krise auch in der Weltwirtschaft führen könnte.
Daher sind viele Wissenschaftler weltweit seit Jahren bemüht, eine neue Generation von Computern zu entwickeln, die nicht mehr auf Elektronen,
sondern auf ganz anderen Elemente wie Quanten oder Photonen basieren. Welches System macht also das Rennen? Quantencomputer, Elektro-Optische oder Optische Computer?
Quelle: Moore Kanunu ve Post-Silisyum Çağına Doğru (Moore's Law & Towards the Post-Silicon Age), Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.38-43, Dezember 2013
Industrie 4.0
HighTech News
Börteçin Ege, Juni 29, 2014
Die 4. industrielle Revolution steht bevor
Eine vierte Industrie Revolution steht der Welt bevor, zumindest auf lange Sicht. Die bevorstehende industrielle Revolution heißt Industrie 4.0.
Mit der Industrie 4.0 werden neue Produktionsmethoden eingeführt, die bisher nicht möglich waren. Weltweit planen die größten Elektrokonzernen noch heute,
ihre Produktionsmethoden Schritt für Schritt auf Industrie 4.0 umzustellen. Bei Industrie 4.0 handelt es sich um Intelligente Fabriken, die Produkte höchst autonom herstellen können.
Um diesen Zweck zu erreichen, müssen jedoch vor allem die Produktionsmaschinen und deren Produkte untereinander vernetzt werden können. Dast ist jedoch nur durch den Einsatz der semantischen Technologien
erreichbar. Denn ohne semantische Interoperabilität der Maschinen ist eine intelligente Produktion nicht realiserbar. Man erwartet jedoch, dass die Realiserung solcher Systeme noch dauern wird.
Vermutlich werden die ersten Industrie 4.0-Produkte erst in den 2020’er Jahren die Fließbänder verlassen.
Kernideen der Industrie 4.0
- Mit der Industrie 4.0 beginnt das auf den einzelnen Kundenbedarf zugeschnittene Produktionszeitalter.
- Höchst autonome Produktion von sehr komplizierten Produkten durch die Maschinen
- Vernetzung der Produktionsmaschinen untereinander, wobei die Maschinen mit hergestellten Produkten auch nach der Produktion in Verbindung bleiben. Auch die Produkten halten ihre Historie im "Gedächtnis".
- Mit der neuen Version der Internet Protocol IPv6 ist die technische Infrastruktur fürs 'Internet der Dinge' (Internet of Things) bereits geschafft.
- Auch im Industrie 4.0-Zeitalter unterstützen die Maschinen den Alltag weiterhin massiv jedoch ohne aufzufallen oder wahrgenommen zu werden (Embedded). Dieser Schritt erfordert jedoch die Entwicklung von preiswerten Hardware, die möglichst klein sind und ohne viel Wärme abzugeben und zugleich hochsicher arbeitet. Somit fängt auch die Ära von Cyber Physical Systems (Das Hardware-Rückgrat der Industrie 4.0).
- Semantische Technologien sind der Kern der Industrie 4.0, weil ohne sie, die semantische Interoperabilität weder unter Produktionsmaschinen untereinander noch zwischen Produkten und Produktionsmaschinen nicht gewährleistet werden kann. (Das Software-Rückgrat der Industrie 4.0).
Quelle: 4. Endüstri Devrimi (Industry 4.0), Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.26-29, Mai 2014
WORKSHOP 2014
CORPORATE SEMANTIC WEB
Semantic Events
Börteçin Ege, Februar 07, 2014
Workshop zum Buchprojekt Corporate Semantic Web
Juni 25-27, 2014, Leibniz-Zentrum für Informatik, Deutschland
"Warum gibt es eigentlich kaum Literatur zu semantischen Anwendungen, die in Unternehmen Nutzen stiften?"
Mit dieser Frage wurde das Buchprojekt Corporate Semantic Webbim November 2013 geboren.
Denn trotz der hohen Aufmerksamkeit für Themen rund um Semantic Web, trotz vieler Artikel und Bücher zu Grundlagen, Standards, Werkzeugen und Visionen, gibt es kaum Literatur, die Architekten, Projektleiter, Ontologie-Modellierer
oder Entwickler semantischer Anwendungen bei ihrer Arbeit unterstützt. Das Buch setzt an diesem Punkt an.
Um über ihre Beitragsschwerpunkte, den Stand der Technik im Bereich Semantic Web und ihre offenen Fragen bezüglich des Buchprojekts zu diskutieren und auszutauschen, treffen sich die Autoren und die Herausgeber vom 25. bis 27. Juni 2014 im Schloss Dagstuhl.
Sie werden im Rahmen des Workshops dem Buch den inhaltlichen Schliff geben. Im Fokus dieses ersten Workshops stehen insbesondere die Vorstellung und inhaltliche Diskussion der Kernaussagen der Beiträge zum Buch. Damit soll sichergestellt werden,
dass sie zueinander stimmig und passend sind. Außerdem sollen mögliche Verständnisfragen geklärt werden, um bspw. vermeintliche Widersprüche aufzudecken.
Weiterlesen...
Weitere Themen zum Workshop:
- Redaktionelle Fragen
- Erstellung eines Zeitplans
- Planung der Reihenfolge und Zuordnung der Beiträge
- Feststellung der Abhängigkeiten unter den Beiträgen
- Wer hat was zu tun?
- Wie geht's weiter?
Corporate Semantic Web Workshop-Serie ist eine herstellerunabhängige Plattform.
Die offizielle Dagstuhl-Webseite zum Workshop (2014)
Copyright © 2012-2020 Dipl.-Ing. Börteçin Ege - Alle Rechte vorbehalten