Schon lange bevor ich mich dazu entschieden habe Interaktive Medien zu studieren, habe ich Pixel hin- und her geschubst. Als ich mit 10 Jahren meinen ersten eigenen Rechner bekam, wurde gemalt, gezeichnet, mit Filtern herumexperimentiert, gebaut, verändert, kaputtgemacht und vor allem die ersten eigenen Fanpages gebastelt. Den Spaß am Entwerfen und Konzipieren von digitalen Medien habe ich seitdem nicht verloren, ob es sich nun um klassische Webseiten oder um Webtools, Apps oder andere Installationen handelt.
Während meiner Studienzeit in Darmstadt und Augsburg habe ich gemerkt, dass nicht nur Computer, Tablets oder Smartphones mit schicken Apps ausgestattet werden wollen, sondern dass es unzählige Möglichkeiten gibt, die Interaktion zwischen Mensch und Maschine in den Alltag zu bringen. Ob auf konventionelle Art - oder eben auch mal etwas lustiger. Gemeinsam mit einem coolen Team macht die Arbeit dann natürlich umso mehr Spaß.
Auf XING bin ich übrigens auch zu finden!
Wie interagiert man in 15 Jahren mit dem Auto?
Dieses Konzept beschreibt ein mögliches Zukunftsszenario über Interaktion zwischen User und Automobil. Im Vordergrund steht ein Head up display, mit dem man über Gestensteuerung interagieren kann.
Das HUD zeigt im Seitenfenster des Autos "location marker" an. Fährt eine Person beispielsweise mit dem Taxi durch eine fremde Stadt, werden Marker an prominenten Sehenswürdigkeiten platziert.
Via Gesten kann der User mit den location markern interagieren, z.B. Kategorien wechseln oder einen interessanten Marker "fangen".
Die für den User interessanten Marker können während der Fahrt "gefangen" und in einem mobilen Gerät aufbewahrt werden. Dazu wird der per Geste gefangene Marker in Richtung des mobilen Geräts "geworfen". Die location erscheint nun in der timeline einer Applikation und kann genauer betrachtet werden.
1. Das head up display wird durch ein doppeltes Klopfen an das Display aktiviert.
2. Verschiedene location-Kategorien können durch Wischgesten nach links oder rechts (3.) geändert werden.
4. Nähert man sich einem angezeigten Marker mit geöffneter Hand, wird dieses ge-highlighted.
5. Das Zusammenballen der Hand zu einer Faust aktiviert den gehighlighteten Marker, dieser kann nun mit einer pull-Geste auf ein mobiles Gerät gespeichert werden.
6. Die Applikation auf dem mobilen Gerät kann durch swipe-Gesten bedient werden.
7. Ein single tap auf eine location öffnet eine Detailseite mit Zusatzinformationen.
8. Ein long press auf eine location bringt versteckte Interaktionen zum Vorschein: Das senden der Adresse an das Navigationssystem des Autos und eine Lösch-Funktion.
Die TruckR-Web-App ist eine Applikation für Berufskraftfahrer, speziell gedacht für den Fernferkehr.
Fernfahrer stehen gerade in der heutigen Zeit einigen Problemen gegenüber, beispielsweise hoher Termindruck, überfüllte Straßen, zu wenige Parkplätze oder marode Infrastruktur. Trotzdem gibt es viele Fahrer, die ihren Beruf lieben und gerade die Freiheit, der eigene Herr zu sein, genießen. Auch die Möglichkeit, fremde Städte und Länder kennenzulernen, spielt eine große Rolle.
Allerdings ist das nicht immer einfach. Einmal in einer fremden Stadt angekommen, muss der Fahrer nach Ablauf seiner maximalen Fahrtzeit seinen fahrbaren Untersatz stehen lassen. Der LKW darf nicht mehr bewegt werden.
Die TruckR-App für Laptops und Tablets schafft Abhilfe und bietet Kartendienste, die extra für Fernfahrer zugeschnitten sind. Eine Freizeitkarte legt den Schwerpunkt auf Tätigkeiten in fremden Städten. Angezeigt werden POIs, die zu Freizeitaktivitäten einladen, sowie der örtliche ÖPNV mit eingebetteten Fahrplänen und Routenanweisung.
In einer weiteren Karte wird der Schwerpunkt auf die Routenplanung zum nächsten Kunden gelegt. Im Vordergrund stehen hier Informationen, die speziell für LKW-Fahrer wichtig sind: Verkehrsinformationen, Höhenprofil der Route, Errechnung der Position für die Pause und Anzeige von geeigneten Parkplätzen in der Nähe.
Eine weitere Funktion von TruckR ist die Comfort Control. Hier kann der Fahrer während seiner Pausen bequem von seiner Liege aus das gesamte Interieur des LKW steuern. Dazu gehören Musik, Klimasteuerung (mit Timerfunktion), Fenster/Türen sowie Innen- und Außenbeleuchtung.
Bei der BenutzBar handelt es sich um eine interaktive Cocktailkarte. Dabei werden Objekte - also Cocktail-Zutaten - als tangible interface objects benutzt. Die BenutzBar soll den Bestellvorgang eines Getränks in einer Cocktailbar oder Lounge interessanter und lustiger gestalten.
Basis der Interaktion ist ein leeres Glas, welches auf einen präparierten Tisch gestellt wird. Nun kann man gewünschte Zutaten ebenfalls auf den Tisch stellen und mit dem Glas "verbinden". Außerdem kann der Anteil einer bestimmten Zutat erhöht oder eine Zutat gänzlich ausgeschlossen werden. Der Tisch zeigt dann Cocktailrezepte mit den gewählten Zutaten an, welche ausgewählt und damit automatisch bestellt werden können.
Das Projekt ist an der Hochschule Augsburg im Kurs "Interaction Engineering" entstanden. Ziel war das Erforschen und Testen neuer Interaktionsmethoden.
Beim Music Magnet handelt es sich um eine Kombination aus tragbarer Stereoanlage und WLAN Hotspot.
Das Prinzip ist einfach: Will man mit seinen Freunden gemeinsam Musik hören, wählt man sich einfach in das vom MusicMagnet bereitgestellte WLAN ein, öffnet die Music Magnet Webapplikation (OHNE zuerst eine App herunterzuladen oder sich irgendwo registrieren zu müssen!) und lädt seine Lieblingsmusik hoch. Die von allen Personen hochgeladenen Tracks werden dann per Zufallsalgorithmus abgespielt. So wird jeder mal zum DJ und kann seine Lieblingstracks im Park, im Schwimmbad, in der Kneipe oder bei Freunden zu Hause anhören.
Das ewige Problem, die Dateien zuerst auf einen gemeinsamen Datenträger zu übermitteln oder die Musik über schlechte Smartphone-Lautsprecher scheppern zu lassen entfällt beim Music Magnet. Auch wird nicht alle 10 Minuten das aktuell am Lautsprecher hängende Smartphone getauscht, weil jemand einen Song vorstellen möchte. Die Gruppe kann sich schlicht und einfach auf das Hochladen einiger Tracks konzentrieren, die Smartphones beiseitelegen und gemeinsam Spaß haben - während nebenbei coole Musik läuft.
Der Music Magnet ist das Ergebnis der ersten 2 Semester (SoSe14 und WS14/15) des Masterstudiengangs "Interaktive Mediensysteme" an der Hochschule Augsburg.
Mit dem MusicMagnet soll das gemeinsame Musikhören einfacher werden. Durch ein modular aufgebautes System kann das System für jedes Szenario angepasst werden. Bestehend aus einem Kernmodul, welches alle notwendigen Funktionen enthält, die der MusicMagnet zum Leben erweckt, gibt es zusätzlich noch ein Akku- und Lautsprechermodul. Diese zweite Komponente kann mit einem Bajonettverschluss ganz einfach an das Kernmodul angeschlossen werden. So kann das System entweder zu Hause an eine Stromquelle und ggf. eine eigene, qualitativ hochwertige Anlage angeschlossen werden - oder man nimmt das Gerät einfach mit in den Park, an den See oder ins Schwimmbad. Durch 4 Akkus hält der MusicMagnet auch ohne Steckdose ca. 8 Stunden lang. 2 Lautsprecher sorgen für angemessene Beschallung.
Das Webinterface, welches ohne Registrierung oder Download im Browser des Smartphones genutzt werden kann, ist extra so konzipiert, dass Standardelemente eines normalen Musikplayers (wie z.B. "play", "pause" oder "weiter") fehlen. Die Zuhörer sollen dazu animiert werden, Musik hochzuladen, um diese dann gemeinsam zu hören.
Danach wird sich wichtigeren Themen gewidmet, zum Beispiel Grillen, Lachen, Schwimmen und Chillen.
Mitlerweile gibt es einen funktionierenden Hardware Prototypen vom Music Magnet. Das Gehäuse besteht dabei teilweise aus PVC-Rohr und teilweise 3D-gedruckten Teilen, die z.B. den Bajonettverschluss verwirklichen konnten, um die beiden modularen Teile des Music Magneten verbinden zu können. Im Gehäuse befinden sich:
Vielen Dank an dieser Stelle auch an die Fakultät für Maschinenbau, die den 3D-Druck ermöglicht und ganz tolle Hilfe beim Sägen und Fräsen geleistet hat. Und natürlich auch der Fakultät für Gestaltung, die uns bei der Finanzierung unterstützt hat.
Unsere coole Jukebox wird auf folgenden Veranstaltungen zu bewundern sein
Linux-Infotag, 28.03.2015, Hochschule Augsburg
Future Music Camp, 24.04.2015, Popakademie Mannheim
Mehr über den MusicMagnet hier: condime.de/musicmagnet
Gold Award Winner in der Kategorie "Student Work" beim IIIDAward 2014!
Der Datenschnorchel ist eine interaktive Visualisierung von Metadaten.
Im Zuge der Diskussionen um die Vorratsdatenspeicherung in Deutschland und dem globalen Überwachungsskandal, welcher mit Hilfe von Edward Snowden im Jahr 2013 an die Öffentlichkeit kam, wurden Metadaten dazu genutzt, besorgte Internetnutzer zu beschwichtigen. Metadaten enthalten keinen Inhalt, wie zum Beispiel der Text eines Briefes. Allerdings enthalten sie die Informationen: Wer mit wem, wann, wo und wie häufig. Geheimdienste und Regierung versicherten den Nutzern, ihre Privatsphäre sei gesichert, denn nur Metadaten würden gespeichert. Das hat viele Menschen beruhigt.
In Wirklichkeit können aber Metadaten sehr wohl private Details und Verhalten von Personen offenbaren.
Mit dem Datenschnorchel möchten wir den Nutzern zeigen, welche Informationen diese im Internet über sich preisgeben - und zwar mit den eigenen facebook oder twitter Accounts. Dabei ist der Schnorchel so designed, dass man, wie durch ein "Schlüsselloch", die eigenen Daten ausspioniert.
Der Nutzer kann sich einfach mit seinen persönlichen facebook und/oder twitter-Accountdaten anmelden und bekommt mit Hilfe einer interaktiven Karte gezeigt, was die Sozialen Netzwerke über ihn wissen - beispielsweise die Adresse oder den Arbeitsplatz. Diese Informationen können nämlich ganz leicht über die Masse an Metadaten, die ein Nutzer im Internet hinterlässt, interpretiert werden - ohne dass jemand seine Adresse irgendwo angeben muss.
Das Projekt soll den Nutzern klar machen, dass persönliche und intime Daten sehr einfach presizugeben sind, wenn man nicht bewusst und behutsam mit ihnen umgeht.
Der Datenschnorchel entstand im Sommersemester 2014 im Kurs "Datenvisualisierung" und wird weiter entwickelt.
Mehr zum Projekt unter condime.de/datenschnorchel
connectain - die Fusion von connect und entertain - ist ein System für Automobile und soll Fahrten mit mehreren Personen interessanter und lustiger gestalten und zusätzlich den Fahrer unterstützen. Unter dem Titel „Interaction Design for Automotive Industries“ wurde im Bachelor-Semester des Studiengangs „Interactive Media Design“ der Hochschule Darmstadt das Konzept von connectain, sowie ein funktionierender Prototyp erarbeitet.
connectain enthält mehrere Applikationen, die Passagiere zum Erkunden und Spielen einladen. Im Startbildschirm der Webapp kann auf folgende Apps zugegriffen werden:
In „Maps & Explore“ kann die Umgebung der aktuellen Position des Autos erkundet werden. Hierbei kann die Umgebung nach mehreren Points of Interests gefiltert werden. Interssiert sich ein Nutzer beispielsweise für Sehenswürdigkeiten in einer fremden Stadt, kann er sich nur diese Objekte angeben lassen. Ist das Interesse für ein Objekt geweckt, kann der Wikipediaeintrag durch touch-Geste aufgerufen werden.
Ebenfalls im Konzept vorgesehen ist eine Musikbibliothek. Mit der soll es möglich sein, dass alle Fahrzeuginsassen, die connectain mit ihrem Smartphone oder Tablet benutzen, gemeinsam ihre Lieblingsmusik über die zentralen Lautsprecher des Autos hören können. So muss man nicht ständig Geräte vom Audiosystem an- und abschließen. Die an das Auto gesendeten Musikstücke werden dann in einer globalen Playlist gespeichert und abgespielt.
Die connectain live-Box ist eine Aftermarket-Lösung für Besitzer älterer Automobile, in denen connectain nicht direkt eingebaut ist. Die Box ist so gestaltet, dass sie bequem ins Handschuhfach eines jeden Kleinwagen passt und wird von dort aus ans System angeschlossen.
Unter dem Motto "Ambient Intelligence in Hotels" wurde im Wintersemester 2012/13 des Studiengangs Interactive Media Design der Hochschule Darmstadt das Konzept für ein Ambient Intelligence Game auf die Beine gestellt.
Das ausgearbeitete Konzept beschreibt das Angebot eines Rollenspiels innerhalb eines Holiday Resorts. In diesem spielen Gäste Geschichten eines bestimmten Themas zusammen mit Schauspielern interaktiv nach. Diese werden dabei durch das Ambient Intelligence System sinnvoll in der Ausführung ihrer Aufgaben unterstützt. Für den Prototypen wurde ein leerer Raum in eine Lagerhalle verwandelt, in der verschiedene Gegenstände versteckt wurden. Beim Berühren der Gegenstände wurden diese als "gefunden" registriert und in einer Datenbank gespeichert. Mit Hilfe dieser Informationen aus der Datenbank können Schauspieler zum richtgen Zeitpunkt in die Geschichte eingreifen.
Das folgende Video soll zeigen, welche Spannung den Gast in Syndicate City erwartet.
Jeder im Hotel eingecheckte Spieler hat auf seinem Hotelzimmer ein kleines Terminal - zum Beispiel in Form eines Tablet-PCs. Dieses beinhaltet die Logs eines jeden gespielten Tages. Ein Personenverzeichnis sowie ein "Inventar" sind ebenfalls vorhanden. So kann der Spieler immer rückblickend einsehen, welche Hinweise er bisher gesammelt hat, welche Personen er getroffen und über was er sich mit ihnen unterhalten hat (siehe nächstes Bild). Die gefundenen Hinweise sind ebenfalls bebildert und mit Beschreibung im Inventar zu finden - Stück für Stück wird so das Rätsel hinter Syndicate City entschlüsselt.
Das hier vorgestellte Projekt wurde im Sommersemester 2012 in Kooperation mit Honda R&D Europe, Germany ausgearbeitet. Aufgabenstellung war, die Schnittstelle zwischen Fahrer und Auto im digitalen Zeitalter neu zu gestalten. Immer mehr Features wandern heutzutage in den Innenraum des Autos und überladen das Armaturenbrett mit immer mehr Knöpfen. SPECTRE's Innenraumkonzept räumt darin auf und schafft platz.
Durch ein gestengesteuertes Bedienkonzept verschwinden sämtliche Knöpfe und fahrerrelevante Informationen werden auf einem Head-up Display angezeigt. Dies ermöglicht eine Bedienung ohne Berührung, was potenzielle Ablenkung für den Fahrer minimalisiert. Der Fahrer kann sich also auf das konzentrieren was ihm Spaß macht: Das Fahren.
Für die Umsetzung des Bedienkonzepts wurde der Innenraum des Autos erst in verschiedene Bereiche unterteilt. Die 3 Bereiche stellen verschiedene Sicherheitszonen dar. Das bedeutet, dass alle Bedienelemente, die häufig genutzt werden und sicherheitsrelevant sind (wie zB Geschwindigkeit, Tankanzeige, Warnungen) in das unmittelbare Sichtfeld des Fahrers gehören. In folgender Skizze sieht man, wie die einzelnen Informationen geclustert werden:
Rot: Fahrer- und sicherheitsrelevante Informationen
Gelb: Infotainment-Anzeige
Grün: Informationen für den Beifahrer via HUD
Der Fahrer kann das Infotainmentsystem mit Gesten bedienen. Ein großer, zentral angebrachter Bildschirm über der Mittelkonsole hilft beim schnellen navigieren. Für Funktionen, die die Sicherheit des Fahrers ggf. gefährden können, wird zusätzlich ein Quick Access Panel rechts vom Lenkrad angebracht (siehe Skizze). Dieses beinhaltet nur die Optionen "Annehmen" oder "Ablehnen" - beispielweise wenn ein Anruf eingeht. Durch die Nähe zum Lenkrad kann der Fahrer das Panel bedienen, ohne lange von der Straße wegschauen zu müssen.
Der Aufbau der gestengesteuerten Benutzeroberfläche des Infotainmentsystems wird folgendermaßen bedient: Aktive Funktionen (z.B. Navi, Temperaturregelung, Radio) werden in blau angezeigt. Der dem Fahrer etwas zugeneigte Bildschirm hat Platz für maximal 3 Anwendungen, die auf einen Blick eingesehen werden können. Wenn mehrere Anwendungen aktiviert sind, kann einfach per Wisch-Geste durchgescrollt werden. Der blaue Punkt ist der "Cursor", also in dem Fall die Position der Hand.
Gebaut wurde der Prototyp mit 2 Autositzen, viel Holz, viel Bastelkleber und Hasendraht :-) Die Gestensteuerung wurde mit Hilfe einer Microsoft Kinect umgesetzt. Das Interface des Infotainmentsystems wurde mit einem Beamer auf die weiße Fläche in der Mitte des Gestells projiziert. Ein "Schnell-Aktivierungs-Panel" wurde in Form eines Smartphones an das Gestell gebaut, die Geschwindigkeitsanzeige hinter dem Lenkrad wurde mit einem iPad umgesetzt.
Park it Right wurde im Wintersemester 2011/12 unter dem Motto "iMobility" entwickelt.
Das „Park it Right“-Konzept beschäftigt sich mit dem Problem der wenigen LKW-Stellplätze auf Autobahnen. Eine Erweiterung für Navigationssysteme soll leerstehende Parkplätze anzeigen und LKW-Fahrer direkt dorthin navigieren - alles innerhalb der einzuhaltenden Fahrzeit. Damit kein neues, kompliziertes System erlernt werden muss, wird Park it Right direkt in bestehende Navigationssysteme integriert und schließt sich dessen Bedienkonzept an. Während des Semesters wurden das Bedienkonzept und die Gestaltungselemente von Navigationsgeräte-Hersteller TomTom gewählt und die neu hinzugekommenen Elemente nach deren Prinzip in das bestehende Interface eingebaut.
Umgesetzt wurde der Prototyp mit Hilfe eines Miniatur-Parkplatzes, Modell-LKW und einer Webcam. Der kleine Parkplatz wurde aus Holz und einigen Dekorationselementen wie Gras, Bäume und Straßenlaternen gebaut. An einem Stativ wurde eine Webcam so platziert, dass diese von oben herab den ganzen Parkplatz erfassen und mittels eines angeschlossenen Microcontrollers (Arduino UNO) berechnen werden konnte, welche Parkplätze besetzt oder frei sind. Die Information "besetzt" oder "leer" wurde in einer Datenbank gespeichert und konnte über ein Webinterface ausgegeben werden.
2014-2015
Hochschule Augsburg
University of Applied Sciences
Interaktive Mediensysteme - Schwerpunkt Mobile Experience
Master of Arts
2010-2013
Hochschule Darmstadt
University of Applied Sciences
Digital Media - Schwerpunkt Interactive Media Design
Bachelor of Arts
2001-2010
Wilhelm-von-Oranien-Schule Dillenburg
Abitur
2015
viovendi GmbH
UI/UX Design
Freiberuflerin
2015
Pixida GmbH
User Interface Design
Masterandin
2013-2014
NavQuest UG
UI/UX Design
Freiberuflerin
2013-2014
CAPCom AG
Webdesign
Freiberuflerin
seit 2013
buschzone
UX/UI Design
Gründerin
2012 & 2013
Honda R&D Europe, Germany
2 Semesterprojekte
Kooperation HS Darmstadt
2011 (6 Wochen)
AdMission - kreation & kommunikation
Design Printmedien
Praktikantin
Erstellung von Wireframes bzw. Mockups.
Aufbau von Informations- und Interaktionsarchitekturen.
Entwicklung von Paperprototypes (oder auch interactive prototypes).
Durchführung von Usability Tests.
Adobe Photoshop
Sketch
Adobe Illustrator
Adobe InDesign
HTML 5
CSS 3
bootstrap
vvvv
Javascript
Englisch
Verhandlungssicher: 3 Jahre englischsprachiges Bachelorstudium an der Hochschule Darmstadt, sowie Leistungskurs Englisch an der Wilhelm-von-Oranien Schule
Französisch
Gute Kenntnisse: 7 Jahre Schulfranzösisch
Japanisch
Anfänger: 2 Semester Japanisch an der Hochschule Augsburg