Wissenswertes zum Context Aware Computing
Computer sind eigentlich dafür bekannt, ausschließlich Kommandos verarbeiten zu können, die klar erteilt werden. Ein Verständnis aus dem Zusammenhang heraus – wie bei zwischenmenschlicher Kommunikation – ist damit ausgeschlossen. Doch auch diese Kluft zwischen Mensch und Maschine beginnt sich laut eco – Verband der Internetwirtschaft e. V. zu schließen. Die Schlüsseltechnologie heißt Context Aware Computing (CAC) und soll Computersysteme an das menschliche Kommunikationsverhalten anpassen.
So funktioniert Context Aware Computing
Die so genannten kontext-sensitiven Systeme stehen mit ihrer Umgebung im Austausch, um Zusammenhänge und Hintergründe „zu versehen“. Sie verbessern die Qualität von Anwendungen zum Beispiel dadurch, dass sie Informationen über den Anwender, seine Umgebung, seine Aktivitäten und seine Vernetzungen gezielt nutzen. Dadurch können Bedürfnisse antizipiert werden und mit jeweils passenden Inhalten, Produkten und Services abgedeckt werden. Daher ist CAC eng verknüpft mit Augmented Reality-Anwendungen (Anreicherung der Wahrnehmung der Realität mit Zusatzinformationen), dem Internet of Things (IoT) und damit zusammenhängend mit Sensoren, beispielsweise zur Bilderkennung.
Entwicklung seit den 90er Jahren
Context Aware Computing gilt seit den 90er Jahren als eine Kernfunktionalität des Ubiquitous Computing oder Pervasive Computing, also der Idee, dass Computerleistung immer und überall grenzenlos zur Verfügung steht. Mark Weiser legte 1991 den Grundstein hierfür mit seiner damals bahnbrechenden Abhandlung „The Computer of the 21st Century“. Der Begriff „Context Aware“ wurde erstmalig 1994 von den Wissenschaftlern B. Schilit und M. Theimer in ihrem Aufsatz „Dissemination active map information to mobile hosts“ verwendet, der vom Institute of Electronics and Electrical Engineers 1994 veröffentlicht wurde. Nach mehr als 20 Jahren kommt Context Aware Computing jetzt im Zusammenhang mit dem Internet of Things (IoT) auch tatsächlich zum Einsatz.
Sprachassistenten als Trendtreiber
Einen ersten Schritt gehen bereits seit längerem die Sprachassistenzsysteme wie Apples Siri und Microsofts Cortana. Die Frage nach dem Wetter wird erkannt und beantwortet – allerdings nicht kontext-sensitiv. Steht also für morgen ein Termin in Barcelona im Kalender und der Nutzer fragt, wie das Wetter morgen wird, ist die Antwort für den aktuellen Ort ohne Nutzen. Die Verknüpfung von Frage und Terminkalender würde in diesem Fall bereits zu einer kontext-sensitiven Antwort führen. „Die Kommunikation mit Gegenständen in natürlicher Sprache gelingt nur, wenn der Gegenstand versteht, wovon man redet“, sagt Markus Schaffrin, Geschäftsbereichsleiter Mitglieder Services im eco Verband, und ergänzt: „Dabei ist es gleichgültig, ob es sich um ein Smartphone, eine Uhr, einen Fernseher oder etwa auch eine Kaffeemaschine handelt.“
Konzept der sprechenden Gegenstände
„Das Konzept der sprechenden Gegenstände hat mit der Welle der Vernetzung von Alltagsgeräten Einzug gehalten und führt dazu, dass Menschen zusehends beginnen, sich mit einem Smartphone beinahe wie mit einem anderen Menschen zu unterhalten“, stellt Markus Schaffrin fest. Systeme wie Siri oder Cortana werden immer häufiger mit „Was ziehe ich morgen am besten an?“ oder noch persönlicheren Fragen konfrontiert, die nur im Zusammenhang – wenn überhaupt – eine sinnvolle Antwort erfahren können. Die Informationen stecken natürlich nicht im Gegenstand, sondern in einer Applikation, die in der Cloud läuft, also letztendlich im Internet, stellt der Verband klar. Genau dies ist die Voraussetzung dafür, dass der Kontext für „pervasive computing“ über alle Geräte und letztlich alle Lebenssituationen hinweg zur Verfügung steht. „Virtuelle persönliche Assistenten“ werden diese Pseudo-Personen, die einen „kennen“, gerne auch genannt.
Quelle: eco Verband der deutschen Internetwirtschaft e.V.