direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Dr. Tim Polzehl

Lupe

Crowdsourcing Technologie 

  • High-Quality Datenerhebung mittels Crowdsourcing
  • Datenmanagement und Datenservices durch Crowdsourcing (clean, index, verify, tag, label, translate, summarize, join, etc. )
  • Datensynthese und Datengenerierung durch Crowdsourcing
  • Subjektive Einflüsse und Bias-Normalisierung im Crowdsourcing
  • Crowd-Creation, Crowd-Voting, Crowd-Storming, Crowd-Testing Applikationen
  • Crowdsourcing Service für Maschinelles Lernen und BI
  • Crowdsourcing Business und Business Logic
  • Komplexe automatisierte Workflows: Kombination menschlicher und künstlicher Intelligenz
  • Crowdsourcing mit mobile Endgeräten
  • Real-time Crowdsourcing
  • Skill-based Crowdsourcing und Verifikation von Crowd-Experten

 

Sprachtechnologie 

  • Automatische Benutzerklassifizierung anhand Sprache
  • Automatische Sprechercharakterisierung (Alter, Geschlecht, Emotionen, Persönlichkeit) 
  • Automatische Spracherkennung (ASR), Prosodie- und Voice Gesture Erkennung
  • Analyse stimmlicher Ausdrucksformen, Phonetische Sprachanalyse
  • App Entwicklung für Sprachanwendungen (Android, iOS)

 

Textklassifikation, Natural Language Processing (NLP)  

  • Sentiment Analyse
  • Affektive Analyse, Emotionen
  • Personality und Lifestyle Detection aus Social-Media (Twitter, FB, G+, etc.)

 

Maschinelles Lernen, Künstliche Intelligenz 

  • Automatische Nutzermodellierung
  • Klassifikation und Vorhersage mittels linearer und nicht-linearer Algorithmen
  • Selektions- und Reduktionsverfahren
  • Evaluations und Verifikationsverfahren


Biographie:

Tim Polzehl studierte eine Kombination aus Kommunikationswissenschaften an der Technischen Universität Berlin und Amerikanistik an der Humboldt Universität zu Berlin. Der Fokus der Studien lag dabei auf einer Verbindung aus linguistischem Sprachwissen mit Kenntnissen zur Signalanalyse und Parameterextraktion. Damit wurde eine umfassende Analyse von Sprachdaten hinsichtlich der Interpretation von Sprach- und Sprach-Metadaten ermöglicht. Zusätzlich erarbeitete er sich Kenntnisse im Bereich des Maschinellen Lernens und der Künstliche Intelligenz, die zur Erstellung einer eigenen Software zur automatischen Emotionserkennung als Abschlussarbeit seiner Studien führte. 

2008 trat Tim Polzehl eine Stelle als Doktorand an den Deutsche Telekom Laboratories (T-Labs) und dem Quality and Usability Lab an und arbeitete sowohl in industrienahen als auch in forschungsnahen Projekten zur Sprachtechnologie, App-Entwicklung, im Bereich Machine Learning und im Bereich der Crowdsourcing Entwürfe und Lösungen.

2011-2013 leitete Tim ein F&E Entwicklungsprojekt der Telekom Innovation Laboratories in Bereich Intelligente Customer-Care Systeme und Sprach-Apps.

2012-2014 nahm Tim an einer BMBF geförderten Führungskräfteausbildung mit u.a. SAP, Software AG, Scheer Group, Siemens, Holtzbrinck, Bosch, Datev und Deutsche Telekom AG sowie weiteren universitären Spitzeneinrichtungen teil (Softwarecampus).       

2014 erlangte Tim den Doktortitel zum Thema der automatische Persönlichkeitsvorhersage aus Nutzerdaten.

Seit 2014 ist Tim Postdoc am Lehrstuhl für Quality and Usability, leitet die Next-Generation Crowdsourcing Gruppe, berteut und akquiriert die Projekte der Gruppe, und betreut die Ausgründung der eigenentwickelten Crowd-Lösung Crowdee.

Seit 2015 ist Tim zusätzlich Projektleiter am EIT-Digital für EU-weite Softwareinnovationsprojekte mit Partnern aus Wissenschaft und Industrie. 

 

Laufende und abgeschlossene Projekte

    Bitte hier klicken

     


    Adresse:

    Quality and Usability Labs

    Technische Universität Berlin

    Ernst-Reuter-Platz 7

    D-10587 Berlin


    Tel.:+49 (30) 8353-58227
    Fax: +49 (30) 8353-58409

    Openings / Supervision

    aktuelle Ausschreibungen befinden sich hier.

    Publications

    2020

    Iskender, Neslihan and Polzehl, Tim and Möller, Sebastian (2020). Towards a Reliable and Robust Methodology for Crowd-Based Subjective Quality Assessment of Query-Based Extractive Text Summarization. Proceedings of The 12th Language Resources and Evaluation Conference. European Language Resources Association (ELRA), 245–253.

    Link zur Publikation Link zur Originalpublikation

    Iskender, Neslihan and Polzehl, Tim and Möller, Sebastian (2020). Best Practices for Crowd-based Evaluation of German Summarization: Comparing Crowd, Expert and Automatic Evaluation. Proceedings of the First Workshop on Evaluation and Comparison of NLP Systems. Association for Computational Linguistics (ACL), 164–175.

    Link zur Publikation Link zur Originalpublikation

    2021

    Iskender, Neslihan and Polzehl, Tim (2021). An Empirical Analysis of an Internal Crowdsourcing Platform: IT Implications for Improving Employee Participation. Internal Crowdsourcing in Companies: Theoretical Foundations and Practical Applications. Springer International Publishing, 103–134.

    Link zur Publikation Link zur Originalpublikation

    Wedel, Marco and Ulbrich, Hannah and Pohlisch, Jakob and Göll, Edgar and Uhl, André and Iskender, Neslihan and Polzehl, Tim and Schröter, Welf and Porth, Florian (2021). Internes Crowdsourcing in Unternehmen. Arbeit in der digitalisierten Welt: Praxisbeispiele und Gestaltungslösungen aus dem BMBF-Förderschwerpunkt. Springer Berlin Heidelberg, 335–349.

    Link zur Publikation Link zur Originalpublikation

    Iskender, Neslihan and Polzehl, Tim and Möller, Sebastian (2021). Reliability of Human Evaluation for Text Summarization: Lessons Learned and Challenges Ahead. Proceedings of the Workshop on Human Evaluation of NLP Systems. Association for Computational Linguistics, 86–96.

    Link zur Publikation Link zur Originalpublikation

    Iskender, Neslihan and Polzehl, Tim and Möller, Sebastian (2021). Towards Hybrid Human-Machine Workflow for Natural Language Generation. Proceedings of the First Workshop on Bridging Human–Computer Interaction and Natural Language Processing. Association for Computational Linguistics, 1–7.

    Link zur Publikation Link zur Originalpublikation

    BibTeX Upload

    Upload BibTeX

    Zusatzinformationen / Extras

    Direktzugang

    Schnellnavigation zur Seite über Nummerneingabe