direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Dr. Tim Polzehl

Lupe

Crowdsourcing Technologie 

  • High-Quality Datenerhebung mittels Crowdsourcing
  • Datenmanagement und Datenservices durch Crowdsourcing (clean, index, verify, tag, label, translate, summarize, join, etc. )
  • Datensynthese und Datengenerierung durch Crowdsourcing
  • Subjektive Einflüsse und Bias-Normalisierung im Crowdsourcing
  • Crowd-Creation, Crowd-Voting, Crowd-Storming, Crowd-Testing Applikationen
  • Crowdsourcing Service für Maschinelles Lernen und BI
  • Crowdsourcing Business und Business Logic
  • Komplexe automatisierte Workflows: Kombination menschlicher und künstlicher Intelligenz
  • Crowdsourcing mit mobile Endgeräten
  • Real-time Crowdsourcing
  • Skill-based Crowdsourcing und Verifikation von Crowd-Experten

 

Sprachtechnologie 

  • Automatische Benutzerklassifizierung anhand Sprache
  • Automatische Sprechercharakterisierung (Alter, Geschlecht, Emotionen, Persönlichkeit) 
  • Automatische Spracherkennung (ASR), Prosodie- und Voice Gesture Erkennung
  • Analyse stimmlicher Ausdrucksformen, Phonetische Sprachanalyse
  • App Entwicklung für Sprachanwendungen (Android, iOS)

 

Textklassifikation, Natural Language Processing (NLP)  

  • Sentiment Analyse
  • Affektive Analyse, Emotionen
  • Personality und Lifestyle Detection aus Social-Media (Twitter, FB, G+, etc.)

 

Maschinelles Lernen, Künstliche Intelligenz 

  • Automatische Nutzermodellierung
  • Klassifikation und Vorhersage mittels linearer und nicht-linearer Algorithmen
  • Selektions- und Reduktionsverfahren
  • Evaluations und Verifikationsverfahren


Biographie:

Tim Polzehl studierte eine Kombination aus Kommunikationswissenschaften an der Technischen Universität Berlin und Amerikanistik an der Humboldt Universität zu Berlin. Der Fokus der Studien lag dabei auf einer Verbindung aus linguistischem Sprachwissen mit Kenntnissen zur Signalanalyse und Parameterextraktion. Damit wurde eine umfassende Analyse von Sprachdaten hinsichtlich der Interpretation von Sprach- und Sprach-Metadaten ermöglicht. Zusätzlich erarbeitete er sich Kenntnisse im Bereich des Maschinellen Lernens und der Künstliche Intelligenz, die zur Erstellung einer eigenen Software zur automatischen Emotionserkennung als Abschlussarbeit seiner Studien führte. 

2008 trat Tim Polzehl eine Stelle als Doktorand an den Deutsche Telekom Laboratories (T-Labs) und dem Quality and Usability Lab an und arbeitete sowohl in industrienahen als auch in forschungsnahen Projekten zur Sprachtechnologie, App-Entwicklung, im Bereich Machine Learning und im Bereich der Crowdsourcing Entwürfe und Lösungen.

2011-2013 leitete Tim ein F&E Entwicklungsprojekt der Telekom Innovation Laboratories in Bereich Intelligente Customer-Care Systeme und Sprach-Apps.

2012-2014 nahm Tim an einer BMBF geförderten Führungskräfteausbildung mit u.a. SAP, Software AG, Scheer Group, Siemens, Holtzbrinck, Bosch, Datev und Deutsche Telekom AG sowie weiteren universitären Spitzeneinrichtungen teil (Softwarecampus).       

2014 erlangte Tim den Doktortitel zum Thema der automatische Persönlichkeitsvorhersage aus Nutzerdaten.

Seit 2014 ist Tim Postdoc am Lehrstuhl für Quality and Usability, leitet die Next-Generation Crowdsourcing Gruppe, berteut und akquiriert die Projekte der Gruppe, und betreut die Ausgründung der eigenentwickelten Crowd-Lösung Crowdee.

Seit 2015 ist Tim zusätzlich Projektleiter am EIT-Digital für EU-weite Softwareinnovationsprojekte mit Partnern aus Wissenschaft und Industrie. 

 

Laufende und abgeschlossene Projekte

    Bitte hier klicken

     


    Adresse:

    Quality and Usability Labs

    Technische Universität Berlin

    Ernst-Reuter-Platz 7

    D-10587 Berlin


    Tel.:+49 (30) 8353-58227
    Fax: +49 (30) 8353-58409

    Openings / Supervision

    aktuelle Ausschreibungen befinden sich hier.

    Publications

    Best Practices for Crowd-based Evaluation of German Summarization: Comparing Crowd, Expert and Automatic Evaluation
    Zitatschlüssel iskender2020c
    Autor Iskender, Neslihan and Polzehl, Tim and Möller, Sebastian
    Buchtitel Proceedings of the First Workshop on Evaluation and Comparison of NLP Systems
    Seiten 164–175
    Jahr 2020
    Ort online
    Adresse online
    Monat nov
    Verlag Association for Computational Linguistics (ACL)
    Serie EMNLP | Eval4NLP
    Wie herausgegeben Fullpaper
    Zusammenfassung One of the main challenges in the development of summarization tools is summarization quality evaluation. On the one hand, the human assessment of summarization quality conducted by linguistic experts is slow, expensive, and still not a standardized procedure. On the other hand, the automatic assessment metrics are reported not to correlate high enough with human quality ratings. As a solution, we propose crowdsourcing as a fast, scalable, and cost-effective alternative to expert evaluations to assess the intrinsic and extrinsic quality of summarization by comparing crowd ratings with expert ratings and automatic metrics such as ROUGE, BLEU, or BertScore on a German summarization data set. Our results provide a basis for best practices for crowd-based summarization evaluation regarding major influential factors such as the best annotation aggregation method, the influence of readability and reading effort on summarization evaluation, and the optimal number of crowd workers to achieve comparable results to experts, especially when determining factors such as overall quality, grammaticality, referential clarity, focus, structure & coherence, summary usefulness, and summary informativeness.
    Link zur Publikation Link zur Originalpublikation Download Bibtex Eintrag

    BibTeX Upload

    Upload BibTeX

    Zusatzinformationen / Extras

    Direktzugang

    Schnellnavigation zur Seite über Nummerneingabe