Ihr redet von usability aus Kommentatorsicht, da ist es natürlich recht, wenn ich möglichst keine Hürden gestellt bekomme überall meinen Senf dazuzugeben, gerade in der heutigen Zeit (Twitter etc)
![Wink ;-)](./images/smilies/icon_wink.gif)
Warum Captchas aber trotzdem sinnvoll sein können und diese allgemeine Verdammnis irgendwie nur einen eingeschränkten Blickwinkel ausliest, ergibt sich aus der Perspektive des Serverbetreibers.
Selbst wenn nur angemieteter Webspace, spielt die Performance eine Rolle. Wenn aber über 90% der Servertätigkeit damit belegt ist, als Spielwiese für Spammer zu gelten, ist das sehr wohl eine Überlegung wert. Und sie wissen es: Je offener, desto mehr.
Jeder der einen MTA betreibt weiß, dass es ein gewisses Grundaufkommen von SPAM und Einbruchsversuchen, also request tests, gibt. Da ist es einfacher sofort einen REJECT zu senden, als schon weit fortgeschritten im System festzustellen, dass es sich hier um einen unerwünschten Gast handelt. So ist es auch in der Überlegung zwischen Captchas und Bayes zB. Letzteres muss erst die Datenbank anwerfen, durchchecken, sortieren, bewerten, etc., alleine schon das Vorhalten belegt einen gewissen Teil der zur Verfügung stehenden Last.
Capchas sind also soetwas wie ein oberflächlicher REJECT ohne große Serverbelastung (Ressourcen, Strom, Reaktionszeit, etc.) Nimmt man diesen weg, sind diesem Aufkommen nur hochintensive Checks gewappnet, die, wie berichtet, ja anscheinend sehr gut funktionieren, doch auf Kosten einer gewissen Ressourcenbereitstellung und Ressourcenbelegung gehen.
Diese Dinger (bis hin zu ihrer Auslagerung mit Re-Captcha u.ä.) entstanden also aus der Überlegung möglichst früh und ohne größere Belastung anzufangen zu sortieren. Das führte dazu, dass das Problem des Server-Admins ein kleines Stück weit auch auf den Kommentator ausgedehnt wurde. Andere Zeiten, andere Lösungen. Im Leben gibt es viele Beispiele, die auf diesem Prinzip aufbauen. Ab diesem Punkt wirds Philosophisch...