Die Daten, die das Problem endlich unbestreitbar machten#
Rund zwei Jahre lang war die "KI-Betrug in Interviews"-Story Anekdote. Einstellungsmanager redeten über Kandidaten, die zu poliert wirkten, Pausen, die sich gescripted anfühlten, neue Hires, die nicht in der Rolle performen konnten, auf die sie gut interviewten. Die Daten, um es zu quantifizieren, fehlten.
Diese Daten kommen jetzt an. Das Bild, das sie zeichnen, ist schlimmer als Anekdote suggerierte, und es erklärt, warum Remote-technisches-Interviewen quer durch die Branche aktiv zurückgeht.
Die verifizierten Zahlen#
Fabric-Analyse von 19.368 Interviews (State of AI Interview Cheating Bericht): 38,5% des Datensatzes wurden für KI-Assistenz markiert. Auffälliger ist die Entwicklung — die Flag-Rate sprang von 9% im Juli 2025 auf 45% bis September 2025.
Gartner-Umfrage unter 3.000 Job-Suchenden (zitiert in Computerworld-Berichterstattung): 6% der Jobsuchenden gaben Interview-Betrug zu. Separat fand Gartner, dass 72,4% der Recruiting-Leader jetzt In-Person-Interviews spezifisch zur Betrugs-Bekämpfung führen.
Blind-Nutzer-Umfrage: 20% der US-Arbeitnehmer gaben zu, heimlich KI in Jobinterviews genutzt zu haben. 59% der Einstellungsmanager berichteten, KI-Missbrauch in jüngsten Interviews zu vermuten.
Coda Search/Staffing-Daten (von Computerworld zitiert): In-Person-Interview-Anfragen sprangen von 5% der Rollen 2024 auf 30% der Rollen 2025. Google, Cisco und McKinsey sind öffentlich bestätigt, zu mehr In-Person-Interviewen zurückgekehrt zu sein.
HackerRank-Recruiter-Umfrage (Stopping AI Cheating in Remote Tech Assessments): über 60% der Engineering- und TA-Leader listen Assessment-Security als Top-Sorge für 2025-2026.
ACCA (Association of Chartered Certified Accountants) kündigte im März 2026 das Ende von Remote-Prüfungen an, spezifisch unter Berufung auf KI-unterstützten Betrug als Grund. Das ist eine Berufs-Accounting-Qualifikation, die hunderttausende Kandidaten jährlich betrifft.
Columbia-University-Suspensions-Fall: Chungin "Roy" Lee wurde 2025 von Columbia suspendiert, nachdem er Interview Coder gebaut hatte, das zu Cluely umbenannt wurde. Cluely sammelte dann im April 2025 5,3 Mio. Dollar Seed auf der expliziten Prämisse, Nutzern bei Interviews und mehr zu helfen zu betrügen.
Die Tools, die das möglich machen#
Für alle, die damit unvertraut sind, die Tools für KI-unterstützten Interview-Betrug sind billig und anspruchsvoll geworden:
Cluely (cluely.com) ist das prominenteste Produkt. Es läuft unsichtbar im Hintergrund, erfasst Coding-Probleme oder Konversations-Prompts per Screenshot und zeigt KI-generierte Antworten auf einem zweiten Bildschirm oder dezenten Overlay. Die Firma vermarktet es explizit als Tool, "bei allem zu betrügen" — Interviews, Prüfungen, Sales-Calls, erste Dates.
Multi-Monitor-Setups mit Screen-Sharing-KI: Kandidat teilt den Hauptbildschirm, ein zweiter Bildschirm zeigt das Interview via Browser, ein KI-Tool beobachtet die Video- und Audio-Feeds, generiert Antworten, zeigt sie auf dem zweiten Bildschirm.
Ohrhörer-gepaarte KI-Assistenten: drahtlose Ohrhörer gepaart mit einem Handy, das ein KI-Modell laufen lässt, das hört und Antworten flüstert. Hardware ist klein genug geworden, dass Detektion via Webcam schwer ist.
Post-Submission-Code-Generierung für Take-Homes: trivial ist es, das Problem in Claude oder ChatGPT einzufügen.
Das ist kein Rand-Phänomen. Cluely sammelte ernste Seed-Finanzierung zu einem Zeitpunkt, an dem sein expliziter Pitch war, Interview-Betrug zu ermöglichen. Investoren bepreisten es als echtes Geschäft. Das ist ein Markt-Signal darüber, wie viele Leute für diese Kategorie zahlen werden.
Die Branchen-Reaktion#
Die Reaktion war entscheidender als irgendjemand zu Beginn von 2024 vorhersagte.
Rückkehr zu In-Person: wie oben dokumentiert, fordern Google, Cisco, McKinsey und viele kleinere Firmen In-Person-Interviewen für Senior- oder sensitive Rollen. Gartners 72,4%-Zahl ist auffällig — fast drei von vier Recruiting-Leadern führen In-Person-Interviews spezifisch wegen KI-Betrugs-Sorgen.
Proctoring-Software: Manche Firmen haben KI-basierte Proctoring-Tools ausgerollt, die Kandidaten via Webcam beobachten, Augenbewegungen tracken und verdächtiges Verhalten markieren. Diese haben ihre eigenen Zuverlässigkeits- und Bürgerrechts-Probleme — die Liang et al. 2023 Stanford-Studie und die Liste der Universitäten, die KI-Detektions-Tools deaktiviert haben zeigen, warum das keine saubere Antwort ist.
Ende von Remote-Assessments in manchen Zertifizierungsstellen: die ACCA-Entscheidung ist das klarste Beispiel, aber andere Berufs-Zertifizierungsstellen werden wahrscheinlich folgen.
Verschiebung, was Interviews evaluieren: Manche Firmen haben Gewicht von Live-Coding hin zu System-Design, Behavioural-Unterhaltungen und tiefer technischer Diskussion verschoben, wo Echtzeit-KI-Assistenz schwerer ist. Der Trade-off: Diese Formate testen andere Fähigkeiten als was vorher getestet wurde.
Bezahlte Testphasen: besonders für Contract-Rollen sind bezahlte 1-2-Wochen-Testphasen am Start häufiger geworden. Das produziert tatsächlichen Arbeits-Output und ist die höchstsignalige verfügbare Evaluation.
"KI-aware" Interviews: Eine kleinere Zahl Firmen erlaubt KI-Nutzung während des Interviews explizit und evaluiert, wie gut der Kandidat sie lenkt. Das passt zur Welt, in der Kandidaten später arbeiten, aber ist schwerer konsistent zu evaluieren.
Warum das schlimmer ist als die Oberflächen-Story#
Die Zahlen oben beschreiben ein Gleichgewicht, das für alle kostspielig ist:
Ehrliche Kandidaten zahlen eine Steuer. Jede Stunde Proctoring-Software, jedes In-Person-Mandat, jeder paranoid Interview-Prozess ist eine Kosten, die jedem Kandidaten auferlegt wird, um gegen den Bruchteil zu verteidigen, der betrügt. Ein nachdenklicher, ehrlicher Engineer muss invasive Überwachung durchsitzen, in eine Stadt fliegen, in die er nicht muss, oder ein 16-Stunden-Take-Home-Projekt machen, weil das Meta-Anreiz-Umfeld sich geändert hat.
Die Anreizstruktur invertiert. Ein Kandidat, der während Interviews keine KI nutzt, konkurriert auf dem Papier gegen Kandidaten, die es tun. Der Meta-Spiel-Anreiz zu betrügen steigt, weil nicht-betrügen ein Nachteil ist — was genau die Dynamik ist, die die Betrugs-Raten von 9% im Juli auf 45% im September 2025 beschleunigte.
Signal aus Interviews hat sich verschlechtert. Firmen, die sich noch primär auf das Interview verlassen, treffen mehr schlechte Einstellungen. Extra-Signale (Referenzen, Testphasen, Multi-Stage-Prozesse) sind teuer, aber nötig.
Junior-Kandidaten werden am härtesten getroffen. Senior-Kandidaten haben vergangene Arbeit, Ruf, GitHub-Historie, Referenzen. Juniors haben nur das Interview, und das Interview hat das schlechteste Signal. Der Junior-Einstellungsmarkt ist messbar schlechter jetzt und verschärft das Problem, das KI-Coding-Tools bereits für Einstiegsrollen schafften.
Vertrauen in Remote-Arbeit erodiert. Die Interview-Betrugs-Story wurde Teil des breiteren "Remote-Arbeit funktioniert nicht" Narrativs, auch wenn die zwei Dinge nicht wirklich dasselbe sind. Es beeinflusste Return-to-Office-Entscheidungen bei Firmen, die keine Interview-Betrugs-Probleme haben.
Was beim Einstellen jetzt funktioniert#
Basierend auf Gesprächen mit Einstellungsmanagern und praktischer Erfahrung beim Interviewen in der aktuellen Umgebung ein funktionierender Ansatz:
- Keine Screen-Shared Coding-Tests für Rollen, wo du plausibel In-Person- oder Shared-Live-Editor-Alternativen verlangen kannst. Die Betrugsfläche ist zu weit für Screen-Share allein.
- Kleine Take-Homes mit Live-Walkthrough. Ein 2-Stunden-Take-Home, das der Kandidat zu seiner Zeit macht, gefolgt von einem 45-minütigen Live-Follow-up, in dem er spezifische Implementierungs-Entscheidungen verteidigt. Fängt KI-Submissions, weil Kandidaten Code nicht verteidigen können, den sie nicht tatsächlich schrieben.
- Senior-Interviews mit Gewicht auf System-Design und Architektur statt Coding. Schwerer in Echtzeit zu betrügen und repräsentativer für Senior-Arbeit.
- Referenz-Checks, drei für jede ernste Rolle. Immer gute Praxis, jetzt Pflicht.
- Bezahlte Testphasen für Contract-Arbeit. Die einzeln höchstsignalige verfügbare Evaluation.
- Ehrlichkeit über Tool-Nutzung. Kandidaten, die ihren KI-Workflow während Interviews offen beschreiben, sind nicht das Problem. Kandidaten, die heimlich ein Tool nutzen und ihren eigenen Output nicht erklären können, sind es.
Wohin das geht#
Regulierung kommt. DSGVO-Prüfung von Proctoring-Software in Deutschland und der EU läuft schon. Arbeitsrechtliche Bedenken zu invasiver Überwachung werden wahrscheinlich innerhalb zwei bis drei Jahren explizite Regeln produzieren.
Detektion wird besser, aber löst nicht voll. Die Tools zur Detektion von KI-gecoachter Rede und Code werden besser. Sie werden 100% Zuverlässigkeit nicht erreichen, und die False-Positive-Rate ist die kritische Metrik — bereits als zu hoch für viele Nutzungen dokumentiert.
Das Wettrüsten läuft weiter. Cluely und ähnliche Produkte werden schwerer zu erkennen. Detection-Tools werden invasiver. Keine Seite gewinnt sauber. Das ist der neue stabile Zustand.
Interviews werden sich aufspalten. Senior-Rollen werden sich zu langen, konversationellen, referenzlastigen Prozessen verschieben, die langsam und teuer, aber genau sind. Junior-Rollen werden weiter Coding-Interviews machen, mit aggressivem Proctoring und In-Person-Komponenten. Die Mitte wird chaotisch.
Die ehrliche Zusammenfassung: KI hat den Einstellungsprozess für fast alle schlechter gemacht. Die Firmen, die das ernst nehmen, ihre Prozesse durchdacht neu gestalten und die echten Kosten akzeptieren, bekommen bessere Ergebnisse als die, die so tun, als wäre das Problem kleiner, als es ist. Wenn du auf einer der beiden Seiten des Einstellungstisches bist, ist das Minimum, aufzuhören, so zu tun.
Weiterlesen#
- KI-Detection-Tools sind kaputt zum verwandten Problem in Content-Authentizität.
- Vibe Coding ist eine Lüge zur zugrundeliegenden Verschiebung dessen, was Engineers tun, die Interviews schwerer zu designen macht.
- Die Klasse von 2023 Retrospektive zum breiteren Muster von KI-Tools, die sich schneller ändern, als die Systeme um sie herum sich anpassen.
Quellen#
- Fabric State of AI Interview Cheating 2026: https://fabrichq.ai/blogs/state-of-ai-interview-cheating-in-2026-insights-from-19-368-interviews
- Computerworld zur In-Person-Rückkehr: https://www.computerworld.com/article/4044734/to-counter-ai-cheating-companies-bring-back-in-person-job-interviews.html
- HackerRank 2025 Playbook: https://www.hackerrank.com/writing/stopping-ai-cheating-remote-tech-assessments-2025-playbook-recruiters
- TechCrunch zu Cluely / Interview Coder: https://techcrunch.com/2025/04/21/columbia-student-suspended-over-interview-cheating-tool-raises-5-3m-to-cheat-on-everything/
- Cluely Produkt-Seite: https://cluely.com
- Harvard Gazette zu KI-Betrug bei Arbeit und Schule: https://news.harvard.edu/gazette/story/2025/10/the-fear-wholesale-cheating-with-ai-at-work-school-the-reality-its-complicated/
- Liang et al. Stanford-Studie zu KI-Detektor-Bias: https://www.cell.com/patterns/fulltext/S2666-3899(23)00130-7
- Liste der Universitäten, die KI-Detektoren deaktivieren: https://www.pleasedu.org/resources/schools-that-banned-ai-detectors
