Inhalt des Dokuments
Dr. Tim Polzehl
[1]
- © Q&U
Crowdsourcing Technologie
- High-Quality Datenerhebung mittels Crowdsourcing
- Datenmanagement und Datenservices durch Crowdsourcing (clean, index, verify, tag, label, translate, summarize, join, etc. )
- Datensynthese und Datengenerierung durch Crowdsourcing
- Subjektive Einflüsse und Bias-Normalisierung im Crowdsourcing
- Crowd-Creation, Crowd-Voting, Crowd-Storming, Crowd-Testing Applikationen
- Crowdsourcing Service für Maschinelles Lernen und BI
- Crowdsourcing Business und Business Logic
- Komplexe automatisierte Workflows: Kombination menschlicher und künstlicher Intelligenz
- Crowdsourcing mit mobile Endgeräten
- Real-time Crowdsourcing
- Skill-based Crowdsourcing und Verifikation von Crowd-Experten
Sprachtechnologie
- Automatische Benutzerklassifizierung anhand Sprache
- Automatische Sprechercharakterisierung (Alter, Geschlecht, Emotionen, Persönlichkeit)
- Automatische Spracherkennung (ASR), Prosodie- und Voice Gesture Erkennung
- Analyse stimmlicher Ausdrucksformen, Phonetische Sprachanalyse
- App Entwicklung für Sprachanwendungen (Android, iOS)
Textklassifikation, Natural Language Processing (NLP)
- Sentiment Analyse
- Affektive Analyse, Emotionen
- Personality und Lifestyle Detection aus Social-Media (Twitter, FB, G+, etc.)
Maschinelles Lernen, Künstliche Intelligenz
- Automatische Nutzermodellierung
- Klassifikation und Vorhersage mittels linearer und nicht-linearer Algorithmen
- Selektions- und Reduktionsverfahren
- Evaluations und Verifikationsverfahren
Biographie:
Tim Polzehl studierte eine Kombination aus
Kommunikationswissenschaften an der Technischen Universität Berlin
und Amerikanistik an der Humboldt Universität zu
Berlin. Der Fokus der Studien lag dabei auf einer Verbindung aus
linguistischem Sprachwissen mit Kenntnissen zur Signalanalyse und
Parameterextraktion. Damit wurde eine umfassende Analyse von
Sprachdaten hinsichtlich der Interpretation von Sprach- und
Sprach-Metadaten ermöglicht. Zusätzlich erarbeitete er
sich Kenntnisse im Bereich des Maschinellen Lernens und der
Künstliche Intelligenz, die zur Erstellung einer
eigenen Software zur automatischen Emotionserkennung als
Abschlussarbeit seiner Studien führte.
2008 trat Tim Polzehl eine Stelle als Doktorand an den Deutsche Telekom Laboratories (T-Labs) und dem Quality and Usability Lab an und arbeitete sowohl in industrienahen als auch in forschungsnahen Projekten zur Sprachtechnologie, App-Entwicklung, im Bereich Machine Learning und im Bereich der Crowdsourcing Entwürfe und Lösungen.
2011-2013 leitete Tim ein F&E Entwicklungsprojekt der Telekom Innovation Laboratories in Bereich Intelligente Customer-Care Systeme und Sprach-Apps [2].
2012-2014 nahm Tim an einer BMBF geförderten Führungskräfteausbildung mit u.a. SAP, Software AG, Scheer Group, Siemens, Holtzbrinck, Bosch, Datev und Deutsche Telekom AG sowie weiteren universitären Spitzeneinrichtungen teil (Softwarecampus [3]).
2014 erlangte Tim den Doktortitel zum Thema der automatische Persönlichkeitsvorhersage aus Nutzerdaten.
Seit 2014 ist Tim Postdoc am Lehrstuhl für Quality and Usability, leitet die Next-Generation Crowdsourcing [4] Gruppe, berteut und akquiriert die Projekte der Gruppe, und betreut die Ausgründung der eigenentwickelten Crowd-Lösung Crowdee [5].
Seit 2015 ist Tim zusätzlich Projektleiter am EIT-Digital für EU-weite Softwareinnovationsprojekte mit Partnern aus Wissenschaft und Industrie.
Laufende und abgeschlossene Projekte
Bitte hier klicken [6]
Adresse:
Quality and Usability Labs
Technische Universität Berlin
Ernst-Reuter-Platz 7
D-10587 Berlin
Tel.:+49 (30) 8353-58227
Fax: +49 (30) 8353-58409
mailto:tim.polzehl@qu.tu-berlin.de
[7]
Publications
Sortieren nach: Autor [13] Jahr [14] Journal [15]
2021
2020
2019
2018
2016
2015
2014
projekte/Crowdee/MIS_8338a.jpg
Innovation/Exponate/Pages/Stress-Manager.aspx
/crowdsourcing_and_open_data/
/crowdsourcing_and_open_data/
nfrage/id/147113/?no_cache=1&ask_mail=YsCAygAFqCkee
PjZuKR8t15r3d06vZJ5DeS4VbujbXFWC0m8iRUZ2A%3D%3D&ask
_name=TIM%20POLZEHL
sarbeiten/
rchers/tim_polzehl/?showp=2&tx_sibibtex_pi1%5Bsort%
5D=year%3A1&cHash=08c47a8975d83449a8b7d2b8b27529b7
archers/tim_polzehl/?showp=3&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=41841319fd53fb9c875856b7df313e49
archers/tim_polzehl/?showp=4&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=e9709156d79453a3ee0953509cfeb522
archers/tim_polzehl/?showp=2&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=08c47a8975d83449a8b7d2b8b27529b7
archers/tim_polzehl/?type=1&tx_sibibtex_pi1%5Bsort%
5D=author%3A0&cHash=13ea5c1577787b2620fd0df7331f7b1
5
archers/tim_polzehl/?type=1&tx_sibibtex_pi1%5Bsort%
5D=year%3A0&cHash=321d8e39f0e4cc40afa70b3f34d85da2
archers/tim_polzehl/?type=1&tx_sibibtex_pi1%5Bsort%
5D=journal%3A0&cHash=5c9952c710a58a6b51b15eb7e0dc03
e2
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945597&cHash=25aa7ebd1e9aac23c22128d57d8ea3f3
tions/iskender_2021_reliability-of-human-evaluation-for
-text-summarization.-lessons-learned-and-challenges-ahe
ad.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945598&cHash=d088f191c72a4753b514c726b0a85dbc
tions/iskender_2021_towards-hybrid-human-machine-workfl
ow-for-natural-language-generation.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945596&cHash=8657a6571ba267ea2569fce7518ed67b
tions/iskender_2021_an-empirical-analysis-of-an-interna
l-crowdsourcing-platform.-it-implications-for-improving
-employee-participation.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945599&cHash=7bc2e19f634d5acb7e4a3da41ec4bc51
tions/wedel_2021_internes-crowdsourcing-in-unternehmen.
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945553&cHash=7a6457a6a330629dc010e3709dceb68e
tions/iskender_2020_best-practices-for-crowd-based-eval
uation-of-german-summarization.-comparing-crowd.-expert
-and-automatic-evaluation.pdf
6.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945552&cHash=bdcd9c56d07fe5d776503310ab1e043f
tions/iskender_2020_towards-a-reliable-and-robust-metho
dology-for-crowd-based-subjective-quality-assessment-of
-query-based-extractive-text-summarization.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945551&cHash=c912ad90915c896fc1744ce67a761b99
tions/iskender_2020_crowdsourcing-versus-the-laboratory
.-towards-crowd-based-linguistic-text-quality-assessmen
t-of-query-based-extractive-summarization.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945507&cHash=17b9ac6e7815e02670f887472fac1ca4
tions-restricted/iskender_2019_a-crowdsourcing-approach
-to-evaluate-the-quality-of-query.based-extractive-text
-summaries.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945437&cHash=c1512eeae69e8d40e8b22084ada74955
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945436&cHash=57a63ecf4cd115b987dd4a95ad3c20df
tions/barz_2018_device.type-influence-in-crowd.based-na
tural-language-translation-tasks.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945439&cHash=5dbd540e2c41c0c8e186dcb3a344dcb5
nt/uploads/2018/06/Zukunft-der-Pflege-Tagungsband-der-C
lusterkonferenz-2018.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945325&cHash=3c394096bd5e348890d420dd3dd42176
tions/koester_2016_non.-.intrusive-estimation-of-noisin
ess-as-a-perceptual-quality-dimension-of-transmitted-sp
eech.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945273&cHash=1f0793139e1800dd524163ebeb5361b5
tions-restricted/naderi_2015_effect-of-trapping-questio
ns-on-the-reliability-of-speech-quality-judgments-in-a-
crowdsourcing-paradigm.pdf
5/papers/i15_2799.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945281&cHash=54908bbe06d11b86ad0f5db69eadb158
tions/polzehl_2015_robustness-in-speech-quality-assessm
ent-and-temporal-training-expiry-in-mobile-crowdsourcin
g-environments.pdf
5/papers/i15_2794.pdf
archers/tim_polzehl/?tx_sibibtex_pi1%5Bcontentelement%5
D=tt_content%3A590463&tx_sibibtex_pi1%5BshowUid%5D=
11945166&cHash=80eb2571e63c2546d2ea37cdf1be8346
tions-restricted/naderi_2014_development-and-validation
-of-extrinsic-motivation-scale-for-crowdsourcing-micro.
-.task-platforms.pdf
archers/tim_polzehl/?showp=2&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=08c47a8975d83449a8b7d2b8b27529b7
archers/tim_polzehl/?showp=3&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=41841319fd53fb9c875856b7df313e49
archers/tim_polzehl/?showp=4&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=e9709156d79453a3ee0953509cfeb522
archers/tim_polzehl/?showp=2&tx_sibibtex_pi1%5Bsort
%5D=year%3A1&cHash=08c47a8975d83449a8b7d2b8b27529b7