IP-Sperre

Und du hast viel mehr Arbeit
Wieviele Gästebucheinträge mit den Begriffen Viagra, Cialis und Penisverlängerung bekommst du denn so am Tag, deren Inhalt du online stellen möchtest?

Ich betreibe ein paar Foren und eine internationale Dating-Seite. Da hab ich schon vieles erlebt. Ich hab beobachtet, worauf es den Jungs ankommt und freue mich jeden Abend beim Durchsehen meiner Übersichtsseite, dass im Prinzip 99% des Mülls direkt ausgesiebt wird.

Und wenn jemand besonders dreist ist, belohne ich ihn mit meinem Lieblingsbefehl in PHP: sleep(20);

Wenn man das Ganze ein wenig sportlich sieht, hat man mehr Spaß als Arbeit damit.
 
Richtig: Wenn das Leben dir eine Zitrone reicht, mach Limonade daraus.

Ich hab mit meinen Spammern jedenfalls viel Spaß und neben dem Status Neuanmeldung, Freigeschaltet, Gesperrt und Gelöscht gibts bei mir auch immer den Status Folterkammer.

Also nimm es sportlich und spiel mit ihnen, statt dich zu ärgern.
 
Ein anständiger Spam-Bot ist aber auf sowas vorbereitet, arbeitet threaded und kann neben dem Post in deinem Forum/Gb/$What-ever auch noch andere Dinge tun. Notfalls baut man ein Timeout von 5 Sek. ein, was IMHO für einen Bot völlig ausreichend ist.

Will nur sagen, das dein Sleep mit Sicherheit nicht wirksamer ist, als anständige Filter und du anscheinend auch nicht über den Tellerrand schauen kannst. Ist nicht persönlich gemeint, also nicht böse nehmen. Ich zeige dir nur mal einen anderen Blickwinkel.

Außerdem kann uns nur ein Betreiber eines Bot-Netzes wirklich sagen, was ein Sleep für sein Netz bedeutet. Vermutlich gar nix.
 
Naja. Ich will auch so ehrlich sein, dass mein größtes Problem weniger Spammer, sondern eher Scammer waren. Also Mädels, die Männer anschreiben und von denen dann Geld geschickt bekommen wollen für Visa, Tickets usw.

Ein Gästebuch habe ich schon lange nicht mehr, und in meinen Foren verwende ich keine Standard-Software, so dass ich allein dadurch schon weniger angreifbar bin. Aber auch da arbeite ich mit verschiedenen Eskallations- und Truststufen. Hier zum Beispiel nehme ich schon mal zur Kenntnis, dass ich jetzt schon Rookie bin :-) Wie schön. Bin also schon aufgestiegen.

Wenn man Neulingen das Setzen von Links verwehrt und sie bei typischem Spamverhalten beobachtet (Mail an den Admin?), kann man schon einiges abwehren.

Bei Abakus hatte ich vor einigen Jahren das hier gefunden und eingebaut:
http://www.bot-trap.de

War damals noch etwas beta und plötzlich mussten Leute im Urlaub Rechenaufgaben lösen. Das fand ich stressig und hab es wieder entfernt, weil ich meine "guten" Besucher nicht wegen schlechten Besuchern gängeln möchte.

Auch eine schöne Lösung ist ein unsichtbares Eingabefeld. Man kann davon ausgehen, dass Bots immer alle vorhanden inputs füllen und sie dann direkt ignorieren.

Mir persönlich liegt der Gedanke, die Jungs in eine Sandkiste zu setzen viel mehr, als sie sofort sichtbar zu sperren. Die müssen doch gar nicht wissen, dass ich sie erkannt habe.
 
Das ist richtig, das würde ich so auch nie machen. Ich habe nix zum vergleichen im Web, nur meinen Mail-Server, bei dem am Tag so durchschn. 300-400 Mails/pro Account (ist nicht nur meine Adresse) sofort nach /dev/null wandern. Dem Spammer wird also nicht mitgeteilt, dass er entdeckt wurde (durch Rejecting).

Ich habe schon oft darüber nachgedacht, ob das nun gut oder schlecht ist. Prinzipiell sieht es erst mal schlecht aus, weil der Spammer dann natürlich weiter Traffic verbrät, der ohnehin nie ankommt. Für mich ist es erst mal gut, weil der Mensch, der hinter dem Bot sitzt, keine Fixes einbauen wird, für ein für ihn nicht-existentes Problem.

Ich bin da echt hin-und-her gerissen.

Die Sache mit dem unsichtbarem Hidden-Field: Das ist ziemlich ausgelutscht, und auf kurz über lang wirds dafür auch eine Möglichkeit geben. Soviele Stellen gibt es nicht, die man für das Attribut hidden prüfen muss. Geht ja nur per HTML und CSS. Naja gut, noch über JS, aber das kann ja dann auch nur die CSS-Property umsetzen. Letztendlich spricht nichts dagegen, dass ein Bot auch prüft, ob die Attribute in Ordnung sind, bevor er den Schmarrn losschickt. Aber da stellt sich natürlich die Frage: Welchen Nutzen hat man davon und wiegt der Nutzen den Aufwand auf.

Mich würde immer noch das Thema Bayes Filter für Web interessieren und ob es Sinn macht, sowas einzubauen. Mir schwebt da ein ähnliches Konstrukt vor, wie bei Mail-Servern:

Posteingangsserver leitet die Mail an spamd weiter, der prüft, setzt X-Spam-Flag abhängig vom Ergebnis und kann dann bestimmte Aktionen durchführen.

Klinkt erstmal sehr interessant, wenn du mich fragst.
 
Es gibt für alles eine Möglichkeit. Angeblich gibt es irgendwo im chesischen Raum Schnuddel-Webseiten, bei denen man zum Vergrößern eines Bildes ein Captcha lösen muss. Und rate mal, wo das herkommt? Das wird direkt durchgeschleust von irgendwelchen Webseiten, die bespammt werden sollen. Stand irgendwann mal bei Heise.

Ich denke, das erste, womit man anfangen sollte, ist eine Bestandsaufnahme. Besteht wirklich ein Problem, das mit technischem Aufwand gelöst werden muss. Dann muss man eben etwas entsprechendes entwickeln. Ich hab da so 'nen Heimwerker-Komplex und mir macht es auch Spaß, mich damit zu beschäftigen.

Man muss sich allerdings auch davon lösen, dass es 100%-Lösungen gibt.

Wenn ich dich richtig verstehe, suchst du aber nach einer Lösung für Mail-Spam. Der OP hatte Gästebuch-Spam. Da ist der Lösungsansatz schon unterschiedlich.

Zu Mail-Spam kann ich wenig sagen. Ich nutze einfach den Spamfilter meines Providers :-)
 
Nein, ich würde gern ein System entwickeln, was genau wie bspw. Spamassassin mit verschieden (durch Plugin erweiterbare) Filter Web-Content filtert, weil das (nicht für mich aber für andere sehr wohl) ein großes Problem zu sein scheint.

Ich brauch das, wie schon gesagt nicht, aber es könnte ja sein, das es jemand anders gern hätte. Dann stellt sich die Frage: macht es Sinn, die hunderte von Mann-Tage dafür aufzuwenden, um dann festzustellen, das es nicht praktikabel ist, weil zu viel Zeit für die Analyse drauf geht. Mein spamd braucht bspw. bis zu einer Sekunde, um festzustellen, ob es Spam ist oder nicht. Ich habe 0 bis max eine Spam-Mail pro Tag tatsächlich im Postfach liegen. Seit ein paar Monaten ist der Filter so gut trainiert (der trainiert sich selbst), dass ich nur noch 1 pro Woche habe, im Durchschnitt.

Sowas für Web-Content wäre doch cool, nur ist es auch praktikabel?
 
Ich finde das sehr interessant und könnte auch etwas dazu beisteuern. Aber ich glaube, im Gegensatz zu Mail-Spam hast du bei Foren-Spam die Möglichkeit mit verschiedenen Truststufen zu arbeiten. Das musst du auch tun.

Wenn ich hier schreibe, dass es jetzt auch Viagra für Frauen gibt, damit die länger in der Küche stehen können, möchte ich nicht gesperrt werden. Man kann also nicht einfach nach Schlüsselworten filtern, sondern muss die Historie des Benutzers berücksichtigen.

Außerdem erhalte ich einige Spam-Einträge, bei denen Betrüger wohl einen beliebigen zufälligen String mit einem link auf eine nicht definierte URL verknüpfen. Dann schauen sie wohl, ob dieser String im Web auftaucht. Wenn ja, geht die Spammerei dann erst los. Solche Attacken erkennst du nur, wenn du ein besonderes Augenmerk auf neue Benutzer legst.
 
Zurück