Inhalt des Dokuments
Dr.-Ing. Jan-Niklas Voigt-Antons
[1]
- © Copyright??
Jan-Niklas Voigt-Antons joined the Telekom Innovation Laboratories as a research scientist in January 2009 and is working there since 2014 as a senior research scientist. He received his diploma in psychology in 2008 from the Technische Universität Darmstadt, Germany, a Doctor-of-Engineering degree in 2014 from the Technische Universität Berlin, Germany and has been doing research at the Quality and Usability Lab at the Technische Universität (TU) Berlin, since. His research interests are in Quality-of-Experience evaluation and its physiological correlates with an emphasis on media transmissions and human-machine-interaction, including neural processing of multimodal interaction. During summer 2012 he was visiting researcher at MuSAE Lab (INRS-EMT), Canada where he examined neural correlates of quality perception for complex speech signals. In spring 2014 he was visiting researcher at the department of psychology of NTNU, Norway where he examined neural correlates of audiovisual asynchrony.
QULab research group: Quality [2], User Experience, Augmented
and Virtual Reality
Research
Topics:
• Multimedia Experience (Usability
evaluation methods, Quality-of-Experience evaluation physiological
measures)
• Interaction Design (Adaptive software, data mining, sensor and behavioural data)
Current projects:
DataVR [3]
Measuring of immersive media experience
Exergaming in virtual reality [4]
DemTab - Tabletgestützte ambulante Versorgung von Menschen mit Demenz [5]
VoiceAdapt - Adaptives Sprachtraining für ältere Menschen mit Aphasie [6]
OurPuppet - Pflegeunterstützung mit einer interaktiven Puppe für informell Pflegende [7]
Past projects:
PflegeTab - Technik für mehr Lebensqualität trotz Pflegebedürftigkeit bei Demenz (GKV) [8]
Quality of Mobile Gaming [9]
Bernstein Focus Neurotechnology - Berlin (BFNT - B) [10]
Teaching:
Seminar | Affective Computing
[11] |
Project | Neuro-Usability
[12] |
Project | Study Project Quality
& Usability (6/9 CP)
[13] |
Thesis:
Current thesis offers of our lab can be found here [14]. Please contact me via email if you are interested in doing a thesis supervised by me.
Jobs:
Current job offers of our lab can be found here [15].
Contact:
+49 30 8353 58 377
jan-niklas.voigt-antons@tu-berlin.de [16]
Address
Technische Univertistät BerlinQuality and Usability Lab
Telekom Innovation Laboratories
Ernst-Reuter-Platz 7
10587 Berlin, Germany
Publications
Zitatschlüssel | dimitrov2018a |
---|---|
Autor | Dimitrov, Todor and Kramps, Oliver and Naroska, Edwin and Bolten, Tobias and Demmer, Julia and Ressel, Christian and Könen, Stefan and Polzehl, Tim and Voigt-Antons, Jan-Niklas and Matthies, Olaf and Habibi, Amir and Heutelbeck, Dominic and Mertens, Jana and Matip, Eva-Maria |
Buchtitel | Zukunft der Pflege Tagungsband der 1. Clusterkonferenz 2018 |
Seiten | 78–84 |
Jahr | 2018 |
ISBN | 978-3-8142-2367-4 |
Ort | Oldenburg, Germany |
Adresse | Oldenburg, Germany |
Notiz | |
Verlag | BIS |
Serie | Zukunft der Pflege |
Wie herausgegeben | Fullpaper |
Zusammenfassung | In diesem Beitrag wird die technische Umsetzung einer interaktiven Puppe beschrieben, die bei Hochaltrigen und Menschen mit Demenz zum Einsatz kommt. Das Hauptziel ist die Entlastung informell Pflegender, in dem die Puppe beruhigend auf die zu Pflegende Person einwirkt, sie aktiviert und Orientierung im Tagesablauf anbietet. Das System besteht aus der Roboterpuppe, einer zentralen Recheneinheit, einer Backendinfrastruktur und der Smartphone App für die Angehörigen. Die Puppe kann Sprache und Emotionen über die Gesichtsmimik wiedergeben. Außerdem ist sie in der Lage, Menschen im Raum mit dem Blick zu folgen. Rechenintensive Aufgaben wie Sprach- und Emotionserkennung, Kontexterkennung und -Management und Handlungsplanung finden auf der zentralen Recheneinheit statt. Dort werden aus Rohdaten (Sprache, Gesichtsbilder und Umgebungssensordaten) Kontexte inferiert und der Handlungsplanung bereitgestellt. Diese entscheidet welche vordefiniert Programme ausgeführt werden müssen, um die Puppe zu steuern (z. B. Person ansprechen, an Termine erinnern). Die erkannten Situationen und ausgeführten Aktionen werden im Backend gespeichert und den informell Pflegenden über die App bereitgestellt. |
Zurück [19]
team/antons_jan-niklas/IMG_1727.jpg
ality
e_projekte/datavr_improving_user_experience_and_usabili
ty_for_data_visualisation_in_vr/
e_projekte/exergaming_in_virtual_reality/
_projekte/demtab_tabletgestuetzte_ambulante_versorgung_
von_menschen_mit_demenz/
_projekte/voiceadapt_adaptives_sprachtraining_fuer_aelt
ere_menschen_mit_aphasie/
_projekte/ourpuppet/
ossene_projekte/pflegetab/
lossene_projekte/quality_of_mobile_gaming/
hlossene_projekte/bernstein_focus_neurotechnology_berli
n/
/lehrangebot_ws_201718/affective_computing/
/lehrangebot_ss_2018/neuro_usability/
/lehrangebot_ss_2018/studienprojekt_quality_usability_6
9_lp/
ssarbeiten/
ssarbeiten/
anfrage/id/51034/?no_cache=1&ask_mail=YsO8jQAF8zJrz
6AXPAaz%2FhPOz%2FOqOSUQqJY%2Bu4BO6YUoTzqL%2FR4knQ%3D%3D
&ask_name=JAN-NIKLAS%20ANTONS
nt/uploads/2018/06/Zukunft-der-Pflege-Tagungsband-der-C
lusterkonferenz-2018.pdf
archers/antons_jan_niklas/?no_cache=1&tx_sibibtex_p
i1%5Bdownload_bibtex_uid%5D=11945439&tx_sibibtex_pi
1%5Bcontentelement%5D=tt_content%3A234339
archers/antons_jan_niklas/