News
Neues Buchprojekt
SEMANTISCHE DATENINTELLIGENZ IM EINSATZ
Semantic News
Börteçin Ege, Juni 15, 2019 / Juli 7, 2018
Verlag: Springer Vieweg
Herausgeber: Adrian Paschke, Börteçin Ege
Erscheinung: Voraussichtlich Anfang 2021
Der sog. „KI-Winter“ ist nach langen Jahren endlich vorbei. Auch das Jahr 2017 stand wieder ganz im Zeichen der kognitiven Systeme.
Während die Begriffe „Künstliche Intelligenz“ (KI) und „Machine Learning“ / „Deep Learning“ heutzutage fast jeder kennt, sind die Begriffe „Semantic Web“
und „semantische Systeme“ der Öffentlichkeit weithin unbekannt, obwohl auch diese Begriffe wichtige und zukunftsrelevante Projekte im Kontext
„Künstliche Intelligenz“ bezeichnen. Wir sind mittlerweile an einem Punkt angelangt, an dem „semantische Systeme“ als effiziente wissensbasierte Systeme
immer wichtiger werden und ihr Potential erkennen lassen, so dass das „Semantic Web“ und die semantischen Technologien definitiv zu der kommenden Generation
der KI gehören und diese mitbestimmen werden.
Wie bereits das Buch Corporate Semantic Web – Wie semantische Anwendungen in Unternehmen Nutzen stiften (Ege et.al., Springer-Verlag, 2015) erfolgreich
dargestellt hat, gibt es ein sehr großes Interesse an semantischen Technologien und deren Anwendungen. Bereits heute reichen diese Anwendungen
semantischer Systeme von der semantischen Suche, über Knowledge Graphs und Chatbots bis zu Sprachanwendungen in der Medizin und auch bis in die
Telekommunikation, die Verwaltung und die Robotik hinein. Die jüngsten Entwicklungen zeigen dabei folgenden Trend: Neben den klassischen
Semantic Web Anwendungen, z.B. in Web-basierten Wissensgraphen und bei der semantischen Suche, beginnen semantische Systeme in den industriellen Anwendungen
neuer Generation, in Industrie 4.0 und Arbeit 4.0, Fuß zu fassen, so dass gesagt werden kann, dass semantische Systeme spätestens mit der Einführung
der Industrie 4.0 allgegenwärtig sein werden. Dies ist schon deshalb unumgänglich, weil ohne semantische Technologien die Interoperabilität unter Maschinen
und insbesondere Roboter für eine intelligente Produktion und Zusammenarbeit nicht umsetzbar ist.
Semantische Technologien und deren Bausteine werden auch bei der Entwicklung von autonomen und selbstlernbaren Systemen eine Schlüsselrolle spielen.
Unsere heutige Vorstellung von der Künstlichen Intelligenz beruht auf Algorithmen, deren Arbeitsweise nicht transparent ist.
Das bedeutet, dass die erzielten Ergebnisse oft nicht nachvollziehbar, wenn auch richtig sind. Intelligente Systeme müssen jedoch in Zukunft in der Lage sein,
nicht nur zu sagen, welche Lösung sie vorschlagen, sondern auch wie dazu gekommen sind (tell me why). Solche Systeme sind jedoch in absehbarer Zeit
nur mit wissensbasierten Systemen auf der Grundlage von semantischen Technologien erreichbar.Unser neues Buch soll wiederum mit zahlreichen Anwendungsbeispielen aus der Industrie die sinnvolle Kombinationen von wissensbasierten
bzw. semantischen Technologien mit den rein datenbasierten Verfahren zeigen und den Leser über diese illustrierenden Beispielen mit dem semantischen Ansatz
vertraut machen. Zu unserem Buchprojekt tragen bereits zahlreiche renommierte Instituten aus Universitäten in Deutschland sowie hochspezialisierte Unternehmen und Global Player
aus der Schweiz, Österreich und Deutschland bei.
10 Jahre Arbeitsgruppe Semantic Web
Semantic News
Börteçin Ege, Januar 07, 2018
Liebe Gruppenmitglieder,
unsere Arbeitsgruppe Semantic Web wurde im November 2007 gegründet und nunmehr schon über 10 Jahre alt.
Mit 14 Moderatoren und fast 3500 Mitgliedern überwiegend aus dem deutschsprachigen Raum ist sie vom Anfang an eine der aktivsten und innovativsten Gruppen
seiner Kategorie. Die Gruppe Semantic Web hat sich seit 10 Jahren zum Ziel gesetzt, seine Mitglieder über ein Zukunftssystem zu informieren, nämlich über
Semantic Web und semantische Systeme, auch wenn sie und die Künstliche Intelligenz damals zumindest bis zu einem gewissen Grad in „Kinderschuhen“ steckten.
Nun der sog. „KI-Winter“ nach langen Jahren endlich vorbei und wie erwartet stand auch das Jahr 2017 ganz im Zeichen der kognitiven Systeme:
Ich denke, die meisten Begriffe, die wir in diesem Zusammenhang im vergangenen Jahr gehört hatten, waren Künstliche Intelligenz, Maschinelles Lernen,
Deep Learning, Chatbots, Autonomes Fahren, Selbstlernende Systeme, Cyber-Attacken, Ransomware und natürlich Bitcoin.
Wir sind mittlerweile an einem Wendepunkt angelangt, wo semantische Systeme gegenüber den datenbasierten Systemen wie Maschinelles Lernen immer wichtiger werden.
Zusammenfassend kann man nur sagen, dass Semantic Web und semantische Systeme definitiv der kommenden Generation der KI gehören.
Ein Highlight der letzten Jahre war unser Buch
Corporate Semantic Web
Corporate Semantic Web (Hrsg. B.Ege et al.),
welches im Juni 2015 beim Springer-Verlag erschienen ist. Ohne unsere Arbeitsgruppe Semantic Web wäre ein solches Werk sicherlich nie entstanden.
Das Buch war vom Anfang an bei Amazon ein Bestseller und hat anscheinend bis auf den heutigen Tag an seiner Aktualität nichts verloren.
Außerdem wurden die einzelnen Beiträge des Buchs laut Bookmetrix bisher über 57.000 Mal von der Springer-Verlagsseite heruntergeladen.
Der bisher meist heruntergeladene Beitrag des Buchs ist Marktstudie: Welche Standards und Tools werden
in Unternehmen eingesetzt? (B.Ege) mit 2252 Downloads (Stand: 07.01.2018). Außerdem bedanke ich mich sowohl bei den Gruppenmitgliedern
als auch beim Moderatoren-Team für ihre Treue und gute Zusammenarbeit und wünsche allen ein erfolgreiches und schönes neues Jahr!
IBM Watson
HighTech News
Börteçin Ege, Januar 7, 2016
Von Deep Blue zum IBM Watson
Vor zwanzig Jahren (1996) gelang es IBM Deep Blue als erstem Computer, den damals amtierenden Schachweltmeister Garry Kasparov in einer Partie zu besiegen.
Ein Jahr danach schaffte es Deep Blue sogar, gegen ihn einen ganzen Wettkampf aus sechs Partien zu gewinnen. Dabei war Deep Blue eigentlich nicht so intelligent, wie es damals vielleicht von vielen angenommen wurde.
Er war keinesfalls lernfähig, und seine Erfolge beruhten größtenteils auf sehr hohen Verarbeitungsgeschwindigkeiten durch Parallel Computing.
Diese Serie von Siegen gegen Kasparov war jedoch das erste Zeichen, dass der sog. „AI-Winter“ nach langen Jahren endlich vorbei war.
Deep Bluess Nachfolger steht eigentlich seit 2011 fest: IBM Watson. Der nach dem ersten Präsidenten von IBM (Thomas J. Watson) benannte Supercomputer wurde als Teil des Forschungsprojektes DeepQA entwickelt.
Seine Berühmtheit erlangte Watson jedoch erst 2011, nachdem er sich bei der US-Quizshow „Jeopardy!“ gegen seine zwei menschlichen Mitstreiter durchsetzte und aus dem Rennen als klarer Sieger hervorging.
Watson ist in der Lage, in nur 15 Sekunden die Akten von einer Million Krebspatienten miteinander zu vergleichen, 10 Millionen Wirtschaftsberichte und 100 Millionen Benutzeranleitungen einzulesen und zu bewerten,
um anschließend diesbezügliche Fragen sofort zu beantworten.
Watson besteht hardwaremäßig aus 90 IBM Power 750 Servern mit insgesamt 16 TB RAM (16.000 GB). Das Herz eines jeden Servers ist ein POWER 7 Prozessor (3,5 GHz) jeweils mit 8-Kern, wobei jeder Kern die Fähigkeit hat,
bis zu 4 Threads parallel auszuführen. Somit ist Watson in der Lage, bei Bedarf insgesamt bis zu 2880 Threads gleichzeitig auszuführen. Die Softwareengine von Watson ist IBM DeepQA.
Sie läuft bei Watson auf dem Betriebssystem SUSE Linux Enterprise Server 11. Weiterlesen...
Watsons Geheimnis
Wie IBM Watson ganz genau funktioniert, weiß wohl kaum jemand. Dies ist nämlich eines der bestgehüteten Geheimnisse von IBM. Man weiß nur, dass das Ziel des Projekts letztendlich ist, eine hochwertige semantische Suchmaschine zu schaffen,
die möglichst auch selbstlernfähig ist. Dabei setzt Watson auf insgesamt mehr als 100 verschiedene Such-, Lern- und NLP-Techniken, um ihm gestellte Fragen zu verstehen und zu beantworten.
Watsons Wissensquellen bestehen insbesondere aus Enzyklopädien, Datenbanken, literarischen Werken, Taxonomien und Ontologien. Wie von IBM mitgeteilt wurde, bestand Watsons Wissensschatz aus 200 Millionen strukturierten und unstrukturierten Dokumenten
(4 TB), als er bei der US-Quizshow „Jeopardy!“ 2011 seinen ersten Sieg gegen einen Menschen erringen konnte.
Von der Von-Neumann-Architektur zur Data-Centric Architekturen
Ein sehr großer Teil von heutigen programmierbaren Computern wie PCs, aber auch Watson beruhen auf der Von-Neumann-Architektur.
In dieser von John von Neumann in den 40er Jahren entwickelten Architektur müssen jedoch Daten und Befehle dauernd zwischen Speicher und Mikroprozessoren transferiert werden, was aber im „Big Data“-Zeitalter nichts anderes
als reine Zeit- und Energieverschwendung bedeutet und oft im Engpass endet (Von-Neumann-Flaschenhals). Daher müssen langfristig neue „Data-Centric“-Architekturen entwickelt werden, in denen Daten im Brennpunkt von Systemen stehen,
aber nicht unbedingt im ganzen System dauernd hin- und hergeschoben werden. Ein wunderbares Vorbild aus der Natur ist bereits vorhanden und zwar das menschliche Gehirn. Das Gehirn vermeidet es nicht nur,
die Daten während einer Verarbeitung in diesem Ausmaß hin und her zu transferieren, es verbraucht auch nur einen Bruchteil der Energie (nur 20 Watt), die die modernen Computer benötigen (hochparallele und massiv verteilte Verarbeitung).
Hinzu kommt die Lernfähigkeit des Gehirns, die aktuell das Thema von einigen neurowissenschaftlichen Forschungsprojekten wie „BRAIN Initiative“ (USA) und „Human Brain Projekt“ (EU) sind.
Durch diese Großforschungsprojekte sollen bald nicht nur das Gehirn des Menschen kartiert werden, sondern auch die sämtliche Aktivitäten von 100 Milliarden Nervenzellen des Gehirns erfasst und letztendlich das menschliche Hirn
durch Simulationen und computerbasierten Modellen nachgebildet werden. Die dadurch gewonnenen Ergebnisse sollen dann der Medizin und der Computerwissenschaften zur Verfügung gestellt werden.
Erwartet werden dadurch nicht nur neue Medikamente, sondern große Fortschritte in Roboter- und Computertechnologien, insbesondere in lernfähigen Computersystemen.
Optische Computertechnologie
Wie meine Leser bereits vermuten werden, heißt hochparallele und massive verteilte Verarbeitung durch „Data-Centric“-Architekturen noch lange nicht, dass Daten in einem Computersystem gar nicht transferiert werden müssen.
Hinzu kommt, dass das zu verarbeitende Datenvolumen jedes Jahr steigt und steigt. Das bedeutet wiederum, dass langfristig nicht nur die Verarbeitungsweise des Wissens, sondern auch Computer selbst hardwaremäßig einer radikalen Veränderung unterzogen werden müssen.
Denn elektronische Computer bzw. auf elektronenbasierte Computer und deren Komponenten sind schlicht und einfach nicht mehr zeitgerecht. Sie passen nicht zu der Verarbeitungsweise des Wissens in heutigen Computern.
Der aussichtsreichste Kandidat für diese Veränderungen ist der optische Computer, der statt auf Elektronen auf Photonen basiert. Im Gegensatz zu elektronischen Computern bieten optische Computer eine sehr hohe Bandbreite und sehr hohe Übertragungsgeschwindigkeiten.
Dadurch können selbst sehr große Datenmengen fast mit Lichtgeschwindigkeit übertragen werden, ohne dabei ein hoher Energiebedarf entsteht. Ein großer Teil der Komponenten, die für den Bau eines optischen Computers notwendig sind, ist bereits entwickelt
und reif für die Serienproduktion.
Quo Vadis?
Mit Watson möchte die IBM, die auch der Schöpfer heutiger PCs ist, den Begriff Computer nochmals definieren, und zwar dieses Mal aus der Sicht von „Cognitive Computing“. Watson ist zwar teilweise ein lernfähiges System,
kann jedoch weder kreativ sein noch neues Wissen schaffen. Er ist aber ein großer und bedeutender Schritt in diese Richtung, für dessen Weiterentwicklung neue Software- und Hardware-Technologien
(semantische Technologien und optische Computertechnologie), neue Daten-Verarbeitungsmethoden (nach dem Vorbild des menschlichen Gehirns), und neue Architekturen (Data-Centric) sicherlich berücksichtigt werden müssen.
Trotz des guten Starts gibt es daher in diesem Bereich noch sehr sehr viel zu tun...
Quelle: IBM Watson (IBM Watson), Ege B., TÜBİTAK Bilim ve Teknik, S.74-79, November 2015
China ist Nr. 1 in Supercomputing
HighTech News
Börteçin Ege, Oktober 29, 2015
Titan seit zweieinhalb Jahren hinter Tianhe-2
Der harte Kampf um den schnellsten Supercomputer der Welt geht ununterbrochen weiter. Der Sieger steht jedoch seit zweieinhalb Jahren trotzdem fest: Tianhe-2 (China).
Daran hat sich auch bei der letzten International Supercomputer Conference in Frankfurt/Main nichts geändert. Der von chinesischen Ingenieuren gebaute Supercomputer Tianhe-2
hat auch in Juni 2015 das Rennen gemacht und landete vor seinen amerikanischen und japanischen Konkurrenten wieder an der Spitze der Top500-Liste gefolgt
von Titan (Cray Inc./USA), Sequoia (IBM/USA), K Computer (Fujitsu/Japan), Mira (IBM/USA), Piz Daint (Cray Inc./Schweiz), Shaheen II (Cray Inc./Saudi Arabia),
Stampede (Dell/USA), JUQUEEN (IBM/Deutschland) und Vulcan (IBM/USA). Weiterlesen...
Obwohl acht der schnellsten zehn Supercomputer der Welt von Amerikanern (Cray Inc., IBM, Dell) gebaut wurden, schaut die Lage für diese nicht rosig aus.
Unabhängig davon, was sie tun, sie können den chinesischen Supercomputer Tianhe-2 seit zwei eineinhalb Jahren nicht von seinem Thron stoßen.
Diese Entwicklung muss auch dem US-Präsident Obama aufgefallen sein: Er hat vor kurzem das Problem zur Chefsache erklärt und höchst persönlich die Entwicklung
eines Supercomputers neuer Generation in Auftrag gegeben, der mindestens 30 Mal schneller laufen soll als Tianhe-2. Das einzige Problem dabei ist, niemand weiß,
wann ein solcher Computer fertig entwickelt sein könnte.
Supercomputer werden in der Industrie in verschiedensten Bereichen eingesetzt, für die Erstellung von ökonomischen Risikoanalysen und Wettervorhersagen ebenso wie zur Kryptologie und zur Entwicklung neuer atomaren Waffen.
Außerdem werden sie auch in der Medizin und Pharmazie genutzt, um den Aufbau von DNA und Proteinen zu entschlüsseln.
Einige Fakten (Juni 2015)
- 80,4% der schnellsten 500 Supercomputer der Welt befinden sich in North Amerika, in Fernost und Westeuropa.
- 86,6% der Top 500 Supercomputer werden für militärische und nachrichtendienstliche Zwecke eingesetzt.
- 97,6% der Top 500 Supercomputer werden mit Linux OS betrieben.
Quelle: Çin, Dünyanın Süper Bilgisayar Gücü (China is the Nr.1 in Supercomputing), Ege B., TÜBİTAK Bilim ve Teknik, S.58-63, September 2015
Was bedeutet „Semantic Web“?
Semantic News
Börteçin Ege, September 20, 2015
„Semantic Web“ ist die nächste Generation des Internets, die nicht nur für Menschen, sondern auch für die Maschinen verständlich ist.
Die heutige Version des Webs, das Web 2.0, ist genauso textbasiert, wie sein Vorgänger Web 1.0, welches sogar nur aus Dokumenten bestand und nicht interaktiv war.
Heute, also fast 15 Jahre nach der Einführung des „modernen Webs“, ist der Erfolg einer Suche im Web immer noch weit davon entfernt, wie es eigentlich sein sollte.
Einer der wichtigsten Verantwortlichen dieses Chaos ist die Textbezogenheit, die das Web vom Anfang an beherrscht hat.
So können Inhalte im Web, wenn überhaupt nur von Menschen interpretiert und verstanden werden und nicht von Maschinen, die als Folge die Menschen nicht adäquat bei der Nutzung des Webs unterstützen können.
Dies gilt insbesondere für die Suche im Web. Das Ergebnis einer Suche sind meistens Millionen von Einträgen, solche, in denen die vom Anwender für die Suche genannten Schlüsselwörter vorkommen.
Der Mensch kann nicht alle diese Suchergebnisse auswerten. Besser wäre es, wenn die Suche nur wenige, aber dafür relevante Treffer zurückgeben würde. Dafür ist „Semantic Web“ die richtige Antwort.
Mit Hilfe von semantischen Technologien können Maschinen die Bedeutungen von Inhalten interpretieren, die Zusammenhänge aus dem Kontext ableiten
und somit die Suchmaschinen in „Antwortmaschinen“ umwandeln. Weiterlesen...
Gibt der Benutzer in die Suchmaske bspw. ein „Wann ist die beste Reisezeit in Südafrika für Safaris?“, bekommt er nur sinnvolle Antworten, solche, die tatsächlich auf die besten Safari-Reisezeiten in Südafrika hinweisen.
Semantic Web Technologien setzen jedoch – ganz anders als im heutigen Web – eine strukturierte Umgebung voraus, in denen Begriffe und Informationen annotiert sind, sodass sie auch von Maschinen interpretiert werden können.
Manche semantische Anwendungen gibt es bereits. Sie werden in verschiedenen Branchen von der Telekommunikation, Logistik, Energie, Medizin bis hin zu Tourismus, Bibliotheks- und Verlagswesen seit Jahren auch sehr erfolgreich eingesetzt.
Vergleiche für mehr Information über solche Anwendungen das Buch Corporate Semantic Web (Hrsg.: B. Ege et al., Springer-Verlag, 2015).
Silicon Valley
HighTech News
Börteçin Ege, Juli 07, 2015
Die neue Haupstadt der Welt: Silicon Valley
Bekanntlich ist Silicon Valley (San Francisco) bereits die Welthauptstadt der Elektronik- und Software-Industrie.
Es ist vielleicht nicht so berühmt wie Wall Street. Doch wird das bald ändern.
Sowie es aber jetzt ausschaut, wird Silicon Valley das berühmte Finanzzentrum Wall Street vom Thron stoßen und auch die Welthauptstadt der Finanzwelt werden.
Die Helden von Silicon Valley sorgen dafür: Sie möchten gerne unsere Welt und unseren Lebensstil ändern...
Zu diesen Helden gehören nicht nur etablierte Chefs wie Mark Zuckerberg (Facebook), Jeff Bezos (Amazon), sondern auch neue Gesichter
wie Travis Kalanick (Uber), Elon Musk (Tesla Motors, SpaceX) und Joe Gebbia (Airbnb). Weiterlesen...
Oft sind sie miteinander stark vernetzt sogar befreundet.
Jeder von denen hat ein anderes Geschäftsfeld und Interessen, jedoch das gleiche Ziel: Die Welt ändern, und das baldmöglichst.
Dafür arbeiten sie auch hart. Sie sind echte Verfechter von Hightech insbesondere der Künstlichen Intelligenz.
Konkurrenz ist für sie fast ein Fremdwort; sie sind vielmehr von Monopolen begeistert.
Sie glauben daran, dass Computer bald den Turing-Test bestehen und fast alles besser schaffen werden als Menschen.
Sie glauben daran, dass in Silicon Valley gegründete Firmen, die mit einer neuen Methodik arbeiten, in zehn Jahren jeweils eine Milliarde Kunden gewinnen und somit auch die Weltwirtschaft beherrschen können.
Die meisten von denen glauben leider auch daran, dass der Mensch durch Computer ersetzbar wäre...
Einige interessante Zitate von Silicon Valley Chefs:
Urlaub kann tödlich sein (Elon Musk's Urlaubseinstellung nach einer Krankheit in einem Urlaub).
Ihr werdet bald sowieso durch fahrerlose Autos ersetzt (Travis Kalanick's Antwort auf Taxifahrer, die ihn nach einer etwas höheren Zahlung forderten).
In Silicon Valley gegründete Firmen können mit Hilfe einer neuen Methodik in zehn Jahren rund um den Globus eine Milliarde Kunden gewinnen
und somit auch die Weltwirtschaft beherrschen. Daher werden fast 40% von den 500 größten Unternehmen der Welt bis 2025 ihre Bedeutung am Weltmarkt verlieren (Raymond Kurzweil, Silicon Valley's Ideologe).
Quelle: Dünyanın Yeni Başkenti: Silisyum Vadisi (World’s New Capital City: Silicon Valley), Ege B., TÜBİTAK Bilim ve Teknik, S.74-78, Juni 2015
Battle Management Language (BML)
Semantic News
Ein Beitrag von Ulrich Schade und B. Ege, Juni 20, 2015
Führung von heterogenen Mehrrobotersystemen mittels Battle Management Language
Ontologien finden nicht nur in Unternehmen, sondern auch in militärischen Bereichen Anwendungen.
Ein gutes Beispiel dafür ist die Battle Management Language (BML) eine formale Sprache ohne Mehrdeutigkeiten, aber mit großer Ausdrucksstärke.
BML wurde im Rahmen der NATO (vgl. Coalition Battle Management Language) entwickelt
und von der Simulation Interoperability Standards Organization als Standard anerkannt.
Die Sprache BML stützt sich ab auf das NATO-Datenmodell JC3IEDM, welches als Fachontologie für militärische Operationen angesehen werden kann
und über welches die in BML verwendeten Terme (Wörter) in ihrer Bedeutung festgelegt sind. Das bringt viele Vorteile mit. Durch Verwendung von BML können bspw. in militärischen Bereichen alle Systeme
(unbemannte Systeme, Simulationssysteme und Command & Control Systeme) die in BML formulierten Befehle und Meldungen inhaltlich „verstehen“ bzw. verarbeiten und nutzen.
Außerdem kann BML in multinationalen Operationen als Lingua Franca zwischen den beteiligten Organisationen genutzt werden,
um Interoperabilität zwischen verschiedenen Organisationen zu erhöhen. Weiterlesen...
Die derzeit wichtigste Anwendung der BML ist die Befehligung von simulierten Einheiten und unbemannten Systemen aus einem Command & Control System (C2-System) heraus.
Dadurch lassen sich Simulationssysteme etwa in der Ausbildung von Offizieren nutzen, wobei die auszubildenden Offiziere ihre (simulierten) Truppen über ihr C2-System führen,
ganz so wie sie auch reale Einheiten führen. Ein weitere Anwendung stellt die Befehligung von Mehrrobotersystemen mittels BML dar.
Aus BML kann auch eine zivile Variante entwickelt werden, die sich für die Kommunikation in Einsätzen der zivilen Sicherheit eignet, um die Interoperabilität zwischen den beteiligten Organisationen
(Polizei, Feuerwehr, THW, Militär, weitere NGOs) zu erhöhen und die Einbindung von den unterschiedlichen Führungs- und Logistiksystemen dieser Organisationen zu optimieren.
Auf der Homepage von Fraunhofer FKIE können Sie über BML mehr erfahren und sich auch ein Video anschauen, wie BML-Befehle von Robotern umgesetzt werden.
Das Video wurde 2013 auf dem Gelände der Bundeswehr in Hammelburg gedreht. Es zeigt, wie mit der Hilfe einer GUI Befehle in BML eingegeben werden können und wie diese von einem Team Unbemannter Systeme
umgesetzt werden.
Peter Norvig: Machine Learning
HighTech News
Börteçin Ege, Mai 08, 2015
Peter Norvig's Vortrag an der TU Wien am 26. März 2015
 |
Der US-Amerikanischer Wissenschaftler Peter Norvig hielt am 26 März im Rahmen von Vienna Goedel Lectures
der Fakultät für Informatik einen Vortrag an der TU Wien. Peter Norvig ist einer der bekanntesten Forscher
im Bereich Künstliche Intelligenz (KI) und seit 2001 Forschungsdirektor
von Google. In seinem Vortrag an der TU Wien berichtete er aus seiner Erfahrungen insbesondere
mit Machine Learning und lernfähigen Computersystemen (Maschinelles Lernen ist ein Softwaresystem,
welches aus Beispielen lernen kann). Er unterstrich in seinem Vortrag auch, dass Machinelles Lernen
eine große Zukunft hat und schon jetzt in der Computer Industrie von IBM Watson, Google, Baidu
bis Yahoo und Facebook eingesetzt wird.
Peter Norvig ist auch der Autor eines der besten und meistverkauften Bücher,
nämlich Artifical Inteligence - A modern Approach (Stuart Russel, Peter Norvig: Künstliche Intelligenz - Ein moderner Ansatz)
Mehr über seine Person und wissenschaftliche Arbeiten finden Sie an seiner Webseite: http://norvig.com/ .
|
Humanoide Roboter bei Airbus im Einsatz
HighTech News
Börteçin Ege, April 15, 2015
Airbus setzt bei der Produktion Humanoide Roboter ein
Airbus, der größte europäische und weltweit zweitgrößte Flugzeughersteller hat in 2014 angefangen, in seinen Werken in Spanien im Rahmen eines wissenschaftlichen
Programms menschenähnliche also humanoider Roboter bei der Produktion von A380 einzusetzen.
Das Ziel ist die Entlastung der Mitarbeiter. Durch die Entlastung von hochqualifizierten Arbeiter plant Airbus die Produktionsgeschwindigkeit zu steigern.
Die humanoide Roboter werden von dem japanischen Roboter Hersteller Kawada produziert.
Auch Boeing, die aktuell für die Flügel-Lackierung von B-777 Roboter verwendet, möchte auch künftig bei der Produktion immer mehr Roboter einsetzen.
|
Quelle: Airbus, A-380 Üretiminde İnsansı Robot Kullanmaya Başladı, Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.8, März 2014 |
Tesla Motors
HighTech News
Börteçin Ege, März 1, 2015
Tesla: Eine Neue Generation von Autos
Tesla ist ein elektrisch betriebenes Auto einer neuen Generation. Die Schöpfer von Tesla sind Martin Eberhard und Elon Musk.
Tesla Motors beschäftigt schon jetzt weltweit über 6000 Leute und besitzt eine der größten und modernsten Fabriken der Welt.
Sie ist zugleich der erste Autohersteller in Silicon Valley. Das neue Modell von Tesla Motors ist Tesla Model S.
Model S hat keinen Motor, sondern der Akku des Autos selbst ist der Motor.
Akkus haben acht Jahre Garantie und können bei Tesla-Ladestationen gratis aufgeladen werden.
Es gibt bei Model S nur zwei Gänge: Vorwärts- und Rückwärtsgang und diese lassen sich nur durch einen Knopfdruck ein- und ausschalten.
Im Cockpit des Autos herrscht wie bei modernsten Flugzeugen die Glass Cockpit Technologie - d.h. alles computergesteuert.
Das ist noch nicht alles: Tesla Model S sprintet von 0 auf 100 km/h nur in max. 3,4 Sekunden!
Zusammengefasst, auch eine Testfahrt mit Tesla ist ein echtes Erlebnis.
Wer wird also das Rennen machen: Wasserstoffautos oder doch elektrisch betriebene?
Quelle: Tesla Elektrikli Otomobilleri (Tesla Electric Vehicles), Ege B., TÜBİTAK Bilim ve Teknik, S.58-63, Februar 2015
Anfang der Post-Silizium Ära
HighTech News
Börteçin Ege, Januar 28, 2015
Mooresches Gesetz bald am Ende - Doch was kommt als Nächstes?
Mooresches Gesetz verliert zunehmend seine Gültigkeit. Das macht sich in den letzten Jahren auch an der Leistungsfähigkeit von Computern bemerkbar;
sie werden nicht mehr von Jahr zu Jahr wirklich leistungsfähiger. Darunter leiden sogar auch Supercomputer, insbesondere wenn es um Verarbeitung von Big Data geht.
Das von Gordon Moore vor genau 50 Jahren also in 1965 formuliertes Gesetz besagt, dass sich die Leistungsfähigkeit von Computern spätestens für alle zwei Jahre verdoppeln.
Nun langsam aber sicher wird die Grenzen von Silizium erreicht und somit können nicht mehr noch sehr viel kleinere Transistoren aus Silizium gebaut werden.
Laut Gordon Moore kommt spätestens in den 2020’er Jahren zum erwarteten Flaschenhals. Dies ist auch Anfang der Post-Silizium-Ära.
Danach kann definitiv nicht mehr leistungsfähigere Computer gebaut werden, was möglicherweise zu einer Krise auch in der Weltwirtschaft führen könnte.
Daher sind viele Wissenschaftler weltweit seit Jahren bemüht, eine neue Generation von Computern zu entwickeln, die nicht mehr auf Elektronen,
sondern auf ganz anderen Elemente wie Quanten oder Photonen basieren. Welches System macht also das Rennen? Quantencomputer, Elektro-Optische oder Optische Computer?
Quelle: Moore Kanunu ve Post-Silisyum Çağına Doğru (Moore's Law & Towards the Post-Silicon Age), Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.38-43, Dezember 2013
Industrie 4.0
HighTech News
Börteçin Ege, Juni 29, 2014
Die 4. industrielle Revolution steht bevor
Eine vierte Industrie Revolution steht der Welt bevor, zumindest auf lange Sicht. Die bevorstehende industrielle Revolution heißt Industrie 4.0.
Mit der Industrie 4.0 werden neue Produktionsmethoden eingeführt, die bisher nicht möglich waren. Weltweit planen die größten Elektrokonzernen noch heute,
ihre Produktionsmethoden Schritt für Schritt auf Industrie 4.0 umzustellen. Bei Industrie 4.0 handelt es sich um Intelligente Fabriken, die Produkte höchst autonom herstellen können.
Um diesen Zweck zu erreichen, müssen jedoch vor allem die Produktionsmaschinen und deren Produkte untereinander vernetzt werden können. Dast ist jedoch nur durch den Einsatz der semantischen Technologien
erreichbar. Denn ohne semantische Interoperabilität der Maschinen ist eine intelligente Produktion nicht realiserbar. Man erwartet jedoch, dass die Realiserung solcher Systeme noch dauern wird.
Vermutlich werden die ersten Industrie 4.0-Produkte erst in den 2020’er Jahren die Fließbänder verlassen.
Kernideen der Industrie 4.0
- Mit der Industrie 4.0 beginnt das auf den einzelnen Kundenbedarf zugeschnittene Produktionszeitalter.
- Höchst autonome Produktion von sehr komplizierten Produkten durch die Maschinen
- Vernetzung der Produktionsmaschinen untereinander, wobei die Maschinen mit hergestellten Produkten auch nach der Produktion in Verbindung bleiben. Auch die Produkten halten ihre Historie im "Gedächtnis".
- Mit der neuen Version der Internet Protocol IPv6 ist die technische Infrastruktur fürs 'Internet der Dinge' (Internet of Things) bereits geschafft.
- Auch im Industrie 4.0-Zeitalter unterstützen die Maschinen den Alltag weiterhin massiv jedoch ohne aufzufallen oder wahrgenommen zu werden (Embedded).
Dieser Schritt erfordert jedoch die Entwicklung von preiswerten Hardware, die möglichst klein sind und ohne viel Wärme abzugeben und zugleich hochsicher arbeitet.
Somit fängt auch die Ära von Cyber Physical Systems (Das Hardware-Rückgrat der Industrie 4.0).
- Semantische Technologien ist der Kern der Industrie 4.0, weil ohne sie, die semantische Interoperabilität weder unter Produktionsmaschinen untereinander noch zwischen Produkten und Produktionsmaschinen nicht gewährleistet werden kann. (Das Software-Rückgrat der Industrie 4.0).
Quelle: 4. Endüstri Devrimi (Industry 4.0), Börteçin Ege, TÜBİTAK Bilim ve Teknik, S.26-29, Mai 2014
Copyright © 2012-2020 Dipl.-Ing. Börteçin Ege - Alle Rechte vorbehalten