Frage:
Wie oft können die Rezensenten die Identität der Autoren richtig erraten, wenn die Rezension doppelblind ist?
Franck Dernoncourt
2016-01-27 22:49:15 UTC
view on stackexchange narkive permalink

Gibt es Forschungsergebnisse / Studien / Umfragen / Datensätze, in denen untersucht wurde, wie oft die Prüfer die Identität der Autoren richtig erraten, wenn die Prüfung doppelblind ist?

Ich bin mir bewusst, dass die Antwort wahrscheinlich ist feldabhängig oder sogar vom Veröffentlichungsort abhängig. Ich interessiere mich hauptsächlich für Informatik, maschinelles Lernen und Verarbeitung natürlicher Sprachen, bin aber auch neugierig auf andere Bereiche.

Ich würde in so ziemlich allen Fällen raten, in denen es nicht die erste Veröffentlichung der Autoren innerhalb des Themenbereichs ist.
Sind Sie daran interessiert, ob sie den Verblindungsprozess offenkundig ignorieren und aktiv nach der Identität des Autors suchen, oder einfach gebeten werden, die Identität nach einer vollständigen Regel nach Überprüfung zu "erraten".
AiliqvxwmhCMT beide
Wenn das Forschungsgebiet eine Nische ist, stehen die Chancen ziemlich hoch!
Fünf antworten:
Blaisorblade
2016-02-12 02:15:11 UTC
view on stackexchange narkive permalink

Konferenzen in Programmiersprachen bewegen sich in Richtung doppelblinder Überprüfungen, und da die Idee diskutiert wird, sammeln die Leute einige Beweise, einschließlich tatsächlich von Experten überprüfter Papiere.

Insbesondere, selbst wenn Prüfer glauben, dass sie dies tun Die Autoren vermuteten, dass sie manchmal / oft falsch sind, wie die Antwort von profmartinez nahe legt. In den Zitaten finden Sie tatsächliche Zahlen. Ich werde selbst keine Literaturrecherche versuchen.

Links

+1 für die Beantwortung einer Referenzanforderungsfrage mit Referenzen. Gute Antwort.
profmartinez
2016-01-28 00:44:49 UTC
view on stackexchange narkive permalink

Nach vielen Programmausschüssen bin ich zu dem Schluss gekommen, dass wir unsere Fähigkeit, Autoren anhand des Inhalts einer doppelblinden Einreichung zu erraten, stark überschätzen.

Ich stimme dem zu. Eine Zeitschrift, die ich bei der Annahme auf "Unblinds" überprüfe - bei einer, bei der ich mir fast sicher war, habe ich mich geirrt und die Arbeit von jemandem vermisst, den ich persönlich kenne.
vonbrand
2016-01-28 00:18:20 UTC
view on stackexchange narkive permalink

Ich betrachte es als meine Pflicht als Rezensent, nicht von irrelevanten Daten wie Autoren abgelenkt zu werden, also überprüfe ich das Papier einfach so wie es ist. Ich bin mir sicher, dass ich mit ein wenig Rätselraten (und ein oder zwei schnellen Suchanfragen) die meisten Autoren identifizieren kann. Ich versuche absichtlich, dies nicht zu tun.

Die meisten Bereiche sind wirklich Wenn Sie eng miteinander verbunden sind, können Sie einen Kollegen anhand von Manierismen schriftlich, des gewählten Ansatzes, der verwendeten Ergebnisse (und der zitierten Artikel) identifizieren. Und geben Sie einen guten Versuch, Studenten von Kollegen zu identifizieren, zumindest bis zum Berater.

Bill Barth
2016-01-27 23:20:52 UTC
view on stackexchange narkive permalink

Wahrscheinlich jedes Mal. Jeder, der zugab, die Verblindung gebrochen zu haben, würde wahrscheinlich ernsthafte negative Auswirkungen haben, und daher würde ich nicht erwarten, dass sich jemand meldet oder auf eine Umfrage antwortet, die es ermöglicht, eine gute Studie durchzuführen. Ich habe die Verblindung bei einer doppelblinden Rezension nie absichtlich gebrochen, aber ich habe auf jeden Fall Papiere erhalten, die nicht richtig geblendet wurden, wobei die wahren Autoren nur beim Betrachten der Titelseite offensichtlich waren, sodass ich sie an den Herausgeber zurücksenden musste / Programmstuhl als nicht überprüfbar.

Ich kenne keine Studien darüber.

Vielen Dank. "Ich würde nicht erwarten, dass sich jemand meldet oder auf eine Umfrage antwortet, die es ermöglicht, eine gute Studie durchzuführen." -> sicher, dass die Studie retrospektiv sein könnte, d. h. sobald der eigentliche Überprüfungsprozess abgeschlossen ist.
@FranckDernoncourt, Selbst wenn Sie Anonymität versprochen hätten, würden Sie eine solche Umfrage wahrheitsgemäß beantworten, wenn Sie es geschafft hätten oder versucht hätten, die Verblindung zu brechen?
Ich bin damit einverstanden, dass es eine gewisse Voreingenommenheit geben würde. Viele Umfragen stoßen auf diese Art von Problem, z. https://www.amstat.org/Sections/Srms/Proceedings/papers/1996_162.pdf, ich denke, das ist das Leben :)
Das Erraten der Identität der Autoren ist so normal, dass ein PC seine Rezensenten befragte, um festzustellen, ob sich ihre Vermutungen als richtig herausstellten.
@Blaisorblade, ist das wahr? Ich versuche nie zu raten, da ich das Ideal der doppelblinden Überprüfung respektiere, wenn ich versuche, die bewusste und unbewusste Voreingenommenheit gegenüber unterrepräsentierten Gruppen in der Papierbewertung zu verringern.
@BillBarth: "Versuchen zu raten" wird in der Tat entmutigt, aber das unterscheidet sich von "raten" (wie in Lesen des N-ten Papiers zu Thema X, das dem Forscher Y zugeordnet ist, und automatisches Raten dieses Papiers kommt auch von Y). Ich meinte sicherlich letzteres, was schwer zu vermeiden ist. Referenzen in meiner Antwort; Die PC-Umfrage finden Sie insbesondere hier: https://www.cs.umd.edu/~mwh/papers/popl12recap.pdf.And [diese FAQ] (http://pldi12.cs.purdue.edu/others/ dbr-faq.html) von unseren Konferenzen unterscheidet "Vermutung" von "Suche nach Informationen über die Identität der Autoren".
lighthouse keeper
2018-01-03 18:01:56 UTC
view on stackexchange narkive permalink

Das folgende Papier präsentiert Ergebnisse einer kürzlich durchgeführten Untersuchung auf drei großen Konferenzen zu Software Engineering und Programmiersprachen (ASE, OOPSLA und PLDI 2016).

Claire Le Goues, Yuriy Brun, Sven Apel, Emery Berger, Sarfraz Khurshid und Yannis Smaragdakis: Wirksamkeit der Anonymisierung im Doppelblind-Review. AdRR abs / 1709.01609 (2017)

Während des Überprüfungsprozesses wurden die Prüfer aufgefordert, eine Vermutung anzustellen, wenn sie glaubten, einen Autor des angegebenen Papiers zu kennen.

Zum Prozentsatz der Beiträge, bei denen eine Vermutung angestellt wurde:

Bei den drei Konferenzen wurden 70% bis 86% der Bewertungen ohne Vermutungen eingereicht, was darauf hindeutet, dass die Prüfer normalerweise nicht glaubten, dass sie es wussten oder sich nicht darum kümmerten Wer hat die meisten der besprochenen Papiere geschrieben?

Zur Richtigkeit der Vermutungen:

Wenn die Gutachter geraten haben, war es wahrscheinlicher, dass sie richtig sind (ASE 72) % der Vermutungen waren korrekt, OOPSLA 85% und PLDI 74%. 75% der ASE-, 50% der OOPSLA- und 44% der PLDI-Papiere hatten jedoch keine Rezensenten richtig erraten, und die meisten Bewertungen enthielten keine korrekten Vermutungen (ASE) 90%, OOPSLA 74%, PLDI 81%).

Über die Auswirkung des Fachwissens der Prüfer auf das Raten:

Wir schließen daraus, dass Gutachter sich selbst als Experten betrachteten waren eher zu erraten Autor Identitäten, aber es war nicht wahrscheinlicher, dass sie richtig erraten wurden.

Zur Auswirkung von (richtigen und falschen) Vermutungen auf die Papierakzeptanz:

Wir beobachteten ein unterschiedliches Verhalten Auf den drei Konferenzen: ASE-Beiträge wurden unabhängig vom Bewertungsverhalten der Prüfer statistisch gleich häufig angenommen. [...] OOPSLA- und PLDI-Einreichungen ohne Vermutungen wurden mit geringerer Wahrscheinlichkeit akzeptiert (p < = 0,05) als solche mit mindestens einer korrekten Vermutung. PLDI-Einsendungen ohne Vermutungen wurden ebenfalls weniger wahrscheinlich akzeptiert (p < = 0,05) als Einsendungen mit allen falschen Vermutungen.

Zusammenfassung:

Wir stellen fest, dass 74% –90% der Bewertungen keine korrekten Vermutungen enthalten und dass Gutachter, die sich selbst als Experten für das Thema eines Papiers identifizieren, eher versuchen, zu raten, aber nicht mehr richtig raten.



Diese Fragen und Antworten wurden automatisch aus der englischen Sprache übersetzt.Der ursprüngliche Inhalt ist auf stackexchange verfügbar. Wir danken ihm für die cc by-sa 3.0-Lizenz, unter der er vertrieben wird.
Loading...