Talisa Brinker
•7 Februar 2024
Du nutzt Deine eigenen Interviewfragen? Warum Deine Interviews nicht optimal sind und du es nicht mal weißt
Interviews gehören zu den am häufigsten eingesetzten Methoden in der Personalauswahl. Mit Hilfe Interviewfragen soll festgestellt werden, ob Kandidat*innen für die Stelle und das Unternehmen geeignet sind. Die Aussagekraft eines Interviews über die Eignung der Kandidat*innen ist am höchsten, wenn das Interview strukturiert ist und situations- und verhaltensspezifische Fragen enthält, die auf einer Job-Analyse der jeweiligen Stelle basieren. Allerdings entscheiden sich Interviewer*innen häufig gegen wissenschaftlich fundierte Fragen und nutzen stattdessen ihre eigenständig formulierten Fragen, die in der Regel unstrukturiert sind. Das bedeutet, dass die Fragen oft an keine genauen Vorgaben gebunden sind und somit inhaltlich unter den Kandidat*innen variieren können. Unter anderem entscheiden sich Personaler*innen für unstrukturierte Fragen, da sie die Gültigkeit (Validität) ihrer Interviewfragen überschätzen. Dadurch wird die Validität von Personalentscheidungen häufig eingeschränkt.
Damit evidenzbasierte Auswahlentscheidungen getroffen werden können, ist es von zentraler Bedeutung zu wissen, warum Interviewer*innen die Validität ihrer Fragen überschätzen. Die Erkenntnisse helfen herauszufinden, wie man Interviewer*innen überzeugen kann, fundierte Fragen zu stellen. Dafür untersuchten Zhang und Kausel (2022), welche Faktoren zur Überschätzung der Validität eigener Interviewfragen beitragen.
Wie wurden die Einflussfaktoren auf die Überschätzung untersucht?
Hierfür führten die Forscher Zhang und Kausel (2022) drei Studien durch, um die zugrundeliegenden Einflussfaktoren der Überschätzung zu untersuchen. Dabei verglichen sie die Beurteilung der Validität von Interviewfragen derjenigen, die diese erstellt hatten, mit externen Beurteilungen. Die potentiellen Einflussfaktoren wurden von den Forschern aus vorherigen Studien abgeleitet und durch drei Hypothesen getestet:
- Der Aufwand für die Erstellung von Interviewfragen wird die wahrgenommene Validität dieser Interviewfragen erhöhen.
Die Forscher gingen davon aus, dass verschiedene Hinweise zur Beurteilung der Validität verwendet werden. Daraus leiteten sie weitere Hypothesen ab:
- Bei Personen, die die Fragen extern beurteilen, wird die Beurteilung der Validität durch die Fragenqualität beeinflusst. Bei Personen, die die Fragen erstellen, hingegen nicht.
- Bei Personen, die die Fragen erstellen, wird die Beurteilung der Validität durch ihr Selbstvertrauen beeinflusst. Bei Personen, die die Fragen extern beurteilen, hingegen nicht.
Welche Erkenntnisse können wir aus den Studien ziehen?
Hypothese 1: Der Arbeitsaufwand der Interviewer*innen beeinflusst die wahrgenommene Validität
Über die Studien hinweg zeigte sich, dass die eigenen Interviewfragen valider wahrgenommen wurden als die anderer. Die eigenen (unstrukturierten) Fragen wurden zudem valider wahrgenommen als die von Expert*innen verfassten (strukturierten) Fragen. Diese Überschätzung der Validität lässt sich auf den Arbeitsaufwand zurückführen, den die Interviewer*innen in die Erstellung ihrer Fragen investierten.
Obwohl dieser Effekt des Arbeitsaufwandes auf die Beurteilung der Validität als robust bewertet wurde, hatte die schrittweise Erhöhung des Arbeitsaufwandes nur einen marginalen Effekt auf die Beurteilung. Das bedeutet, dass es keine Rolle spielte, ob die Fragen eigenständig konzipiert (hoher Aufwand) oder aus einer vorgefertigten Liste ausgewählt wurden (moderater Aufwand). In beiden Fällen war der Aufwand vergleichsweise höher als bei der Beurteilung externer Fragen (geringer Aufwand). Auf diese Weise wurden ausgewählte Fragen aus einer vorgefertigten Liste genauso valide bewertet wie die eigenen und immer höher als die Fragen von Externen. Dieser Effekt war über die Zeit hinweg stabil.
Hypothese 2: Die Beurteilung der Validität externer Interviewfragen wird durch die Fragenqualität bestimmt
Es zeigte sich, dass die Beurteilung der Validität von Interviewfragen von Personen, die die Fragen (extern) beurteilten, durch die Fragenqualität beeinflusst wurde. Bei Personen, die die Fragen erstellten, hatte diese hingegen keinen Einfluss auf die Beurteilung.
Beispielsweise gilt die bekannte Interviewfrage “Erzählen Sie mir etwas über sich, das andere vielleicht überraschen könnte” wegen ihrer niedrigen Fragenqualität als unergiebig, um wertvolle Informationen über Kandidat*innen zu erhalten. |
Hypothese 3: Die Beurteilung der Validität eigener Interviewfragen wird durch das Selbstvertrauen bestimmt
Im Unterschied dazu wurde die Beurteilung der Validität eigener Interviewfragen durch das Selbstvertrauen der Interviewer*innen bestimmt. Dass die Fragenqualität nicht berücksichtigt wurde, zeigte sich auch daran, dass die von Expert*innen verfassten (strukturierten) Interviewfragen weniger valide eingeschätzt wurden als die eigenen unstrukturierten.
Zusammengefasst konnte festgestellt werden, dass Interviewer, denen die Entwicklung von Interviews freigestellt ist, (1) nur selten qualitativ hochwertige Fragen entwickeln, (2) die Validität von unstrukturierten Fragen überschätzen und (3) die Qualität der Fragen bei ihrer Bewertung nicht berücksichtigen.
Was muss in der Praxis berücksichtigt werden?
Die Studienergebnisse zeigen auf, warum Interviewer*innen die Validität ihrer eigenen Fragen überschätzen. Diese Erkenntnisse bieten wichtige Anhaltspunkte für die Praxis.
Interviewer*innen müssen dazu ermutigt werden, strukturierte Fragen zu stellen
Die Studie ergab, dass die eigenen Fragen von Interviewer*innen oft unstrukturiert sind, was zu einer geringeren Qualität der Verfahren führt. Gleichzeitig wurde festgestellt, dass Interviewer*innen grundsätzlich offen dafür sind, strukturierte Fragen zu nutzen. Demnach könnte man Interviewer*innen dazu ermutigen, fundierte Fragen zu stellen, indem ihnen die Möglichkeit gegeben wird, aus einer Auswahl evidenzbasierter Interviewfragen, eine Teilmenge auszuwählen. Zusätzlich können Entscheidungsträger*innen aufgrund ihres großen Ermessensspielraums die Qualität des Interviewverfahres beeinflussen und sollten daher direkt bei Personalauswahlentscheidungen miteinbezogen werden.
Schließen der Scientist-Practitioner-Gap
Die Forscher gehen davon aus, dass der Effekt der Überschätzung auch in anderen Prozessen auftreten könnte. Auf diese Weise könnten Manager*innen die eigenständig konzeptualisierten HR-Praktiken überschätzen und evidenzbasierte Verfahren vernachlässigen. Das kann zu einer Kluft zwischen Forschung und Praxis beitragen (sog. Scientist-Practitioner-Gap). Um dieser Problematik entgegenzuwirken, ist eine stärkere Implementierung evidenzbasierter Interviewpraktiken erforderlich. Auch in diesem Fall ist die Zusammenarbeit von Entscheidungsträger*innen und Forscher*innen von Bedeutung.
Applysia trägt dazu bei, die Scientist-Practitioner-Gap zu schließen. Unsere Software kombiniert die teilweise komplexen Erkenntnisse aus der Forschung mit moderner Technologie und stellt dies in einer benutzer*innenfreundlichen Oberfläche bereit. Unsere Software bietet einerseits die Möglichkeit, individuelle und positionsspezifische Interviewleitfäden zu hinterlegen. Andererseits stellt sie vorkonfigurierte, strukturierte Interviewleitfäden bereit, die auf dem universellen Kompetenzmodell des ROC Institute basieren und jederzeit abgerufen werden können. Die verschiedenen Anwendungsmöglichkeiten gewährleisten eine optimale Passung mit den spezifischen Anforderungen Eures Unternehmens. Dies ermöglicht nicht nur eine validere Beurteilung der Interviewfragen durch den geringen Aufwand bei der Auswahl der Fragen, sondern trägt auch zur Erhöhung der Validität Eurer Personalauswahl und -entwicklungsverfahren bei, indem auf evidenzbasierte Interviewfragen zurückgegriffen wird.
Mehr Infos zur Software von Applysia findest Du hier: https://applysia.de/produkt/.
Der Link zur Originalstudie:
Zhang, D. C., & Kausel, E. E. (2022). The illusion of validity: How effort inflates the perceived validity of interview questions. European Journal of Work and Organizational Psychology, 32(2), 256-271. https://doi.org/10.1080/1359432X.2022.2144240