• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Impressum nicht für jeden Zugänglich

Werbung:
Ja da muss man echt aufpassen mir sind in letzter zeit n paar Gesetze aufgefallen die ich früher immer Gebrochen habe (War keine Absicht) Und heute höre ich das das Strafe mit hohen Goldsummen geben kann ...

FG Niklas
 
Ja da muss man echt aufpassen mir sind in letzter zeit n paar Gesetze aufgefallen die ich früher immer Gebrochen habe (War keine Absicht) Und heute höre ich das das Strafe mit hohen Goldsummen geben kann ...

FG Niklas
Goldsummen? Zu viel gezockt? =)

Ja es gibt schon einige Gesetze die wahrscheinlich auch mit jeder Seite, die ich bastle, breche ;D
 
Werbung:
So ich poste es nochmal:
So der Thread hat mich Neugierig gemacht so habe ich mir eine robots.txt Datei erstellt.

Könnt ihr die vllt überprüfen? Also admin ist ein Ordner und die beiden anderen Sachen:mrgreen: sind Datein.
Code:
User-agent: *
Disallow: /admin/
Disallow: /kontakt.php
Disallow: /impressum.php
so wie ich es mit bekommen habe ist es in Deutschland doch erlaubt Suchmaschinen mittels robots.txt auszuschließen oder?

MfG xXxPeterPanxXx
 
Werbung:
So ich poste es nochmal:
So der Thread hat mich Neugierig gemacht so habe ich mir eine robots.txt Datei erstellt.

Könnt ihr die vllt überprüfen? Also admin ist ein Ordner und die beiden anderen Sachen:mrgreen: sind Datein.
Code:
User-agent: *
Disallow: /admin/
Disallow: /kontakt.php
Disallow: /impressum.php
so wie ich es mit bekommen habe ist es in Deutschland doch erlaubt Suchmaschinen mittels robots.txt auszuschließen oder?

MfG xXxPeterPanxXx

Hallo.

Deine robots.txt müsste so eigentlich stimmen.
Es ist jedem selbst überlassen ob er Suchmaschinen ausschliesst oder nicht. Das ist nicht verboten.

Das einzige Problem ist: Es gibt Suchmaschinen denen die robots.txt sowas von egal ist und das sind genau die Suchmaschinen die ihr eigenlich ausschliessen wollt.
Google sammelt keine E-Mail Links um dann Spam zu verschicken, dafür sind andere Suchmaschinen zuständig.


Gruss
Elroy
 
Werbung:
Das einzige Problem ist: Es gibt Suchmaschinen denen die robots.txt sowas von egal ist und das sind genau die Suchmaschinen die ihr eigenlich ausschliessen wollt.
Google sammelt keine E-Mail Links um dann Spam zu verschicken, dafür sind andere Suchmaschinen zuständig.


Gruss
Elroy

Mist .........
 
Hier stehts doch , wie es gemacht wird

Danke Tomm.

Du hast sicher auch gesehen das dieser Beitrag vom 01.01.2005 ist.

1. Hat sich die Rechtslage inzwischen etwas geändert.
2. Hat der Berichterstatter von dem Thema etwa soviel Ahnung wie ich vom Fliegen.

Fangen wir jetzt mal ganz von vorne an: Warum wollt ihr Suchmaschinen ausschliessen? Was haben sie euch getan?
Richtig! Gar nichts. Sie helfen euch nur das Besucher euere Seiten finden.

Ihr wollt nicht das z.B. die E-Mail Adresse aus euerem Impressum missbraucht wird.

Dazu ist Suchmaschinen ausschliessen und Bilder erstellen der falsche Weg.
Wenn dazu Interesse besteht werde ich morgen etwas darüber schreiben. Das wird nämlich ein laaaaanges Posting und heute habe ich leider keine Zeit dazu.

Gruss
Elroy
 
Werbung:
Hallo.

Deine robots.txt müsste so eigentlich stimmen.
Es ist jedem selbst überlassen ob er Suchmaschinen ausschliesst oder nicht. Das ist nicht verboten.

Das einzige Problem ist: Es gibt Suchmaschinen denen die robots.txt sowas von egal ist und das sind genau die Suchmaschinen die ihr eigenlich ausschliessen wollt.
Google sammelt keine E-Mail Links um dann Spam zu verschicken, dafür sind andere Suchmaschinen zuständig.


Gruss
Elroy
Doppelt hält besser :D Ob du es nun änderst und so den Schutz vor einigen Suchmaschinen hast, oder ob du es gar nicht rein machst ist doch ein gewaltiger Unterschied ;D
 
So hier bin ich wieder.

Zuerst noch etwas zu Rostgnom.
Ich glaube es gibt hier ein Missverständnis. Ihr wollt euere Seite immer vor Suchmaschinen schützen. Warum den, das ergibt gar keinen Sinn.
Eine Suchmaschine postet keinen Spam, eine Suchmaschine sammelt keine E-Mail Adressen.

Ich nehme mal an ihr wollt euere Seite for Spambots schützen. Was macht ein Spambot? Ein Spambot schreibt Spam in Gästebücher, ein Spambot benutzte ungeschütze Kontaktformulare zum versenden von Spam und ein Spambot sammelt E-Mail Adressen.
Ein Spambot schert sich einen Dreck um eine robots.txt, da er darauf nicht programmiert wurde existiert sie für ihn nicht. Ich nehme mal an ihr verwechselt hier die robots.txt mit der .htaccess. Die .htaccess macht nämlich genau das was ihr immer mit der robots.txt erreichen wollt.
Aber dazu später.

Was soll man also tun wenn das Gesetzt verlangt das man eine E-mail Adresse angeben muss aber Spambots nicht Tür und Tor öffnen möchte?
Einen 100%tigen Schutz gibt es nicht, aber man kann den Spambots das Leben etwas schwerer machen und gleichzeitig den Spam auf seiner Seite etwas reduzieren.

Fangen wir mit etwas leichtem an, dem verschlüsseln der E-mail Adresse. Wir geben unsere E-mail Adresse nicht mehr als Klartext aus sondern verschlüsseln sie mit Unicode.
Das hält schon mal einige Spambots ab und geht mit den deutschen Gesetzen in Einklang da die E-mail Adresse immer noch für jeden benutzbar ist, ausser für einige Spambots.
E-mail Adresse verschlüsseln

Leider gibt es inzwischen auch genügend Spambots die so eine verschlüsselte E-mail wieder entschlüsseln.

Und da sind wir schon am Ende unserer Weisheit, viel mehr kann man nicht tun. Es gibt zwar noch einge CSS Tricks aber die hier zu erklären würde wirklich den Rahmen dieses Postings sprengen und 100%tig sicher sind die auch nicht.

Damit geben wir uns nicht zufrieden. Jetzt nehmen mir uns die .htaccess vor. Viele sagen jetzt vieleicht die .htaccess benutzt man doch um seine Verzeichnise mit einem Passwort Schutz zu versehen. Das ist nur ein ganz kleiner Teil der Funktionen der .htaccess, die .htaccess ist ein mächtiges Werkzeug und man sollte wissen was man tut sonst kann das ganz schnell in die Hose gehen.

Für was benutzen wir die .htaccess?
Richtig! Mit der robots.txt wollten wir Suchmaschinen aussperren, es macht aber viel mehr Sinn mit der .htaccess Spambots auszusperren. Man kan mit der .htaccess IP Adressen und IP Adressbereiche blocken und so verhindern das Spambots auf die Seite zugreifen. Da ich eueren Wissensstand in Sachen .htaccess nicht kenne gehe ich auf die Bearbeitung nicht näher ein, wie gesagt damit kann man sich selbst mehr Schaden zufügen als jeder Spambot.
Ich habe die .htaccess erwähnt weil es ein Projekt gibt das auf den Funktionen der .htaccess beruht und auch Webmastern die keine Profis sind die Möglichkeit bietet seine Webseite vor Spam zu schützen.
Bot-Trap
Das sollte man sich mal ansehen.
Damit schliesse ich. Ich möchte nur noch sagen das der Kampf gegen Spambots keine Sache von 5 Minuten Code einfügen und gut ist. Man muss sich sehr viel informieren, immer wieder nachbessern und neue Sachen ausprobieren aber eine Allround Lösung gibt es nicht.

Gruss
Elroy
 
Werbung:
Elroy,

guter Beitrag

Aber was spricht dagegen sein Impressum als Bild einzufügen ?
Ist das verboten ?

Ich möchte auch nicht unbedingt meine Daten ins Netz stellen
Mit einem Bild erscheint wenigstens nichts von mir in den Suchmaschinen

z.B. Identitätsklau, mit meinen Daten könnte sich jemand irgendwo anmelden.....
 
Elroy,

guter Beitrag

Aber was spricht dagegen sein Impressum als Bild einzufügen ?
Ist das verboten ?

Ich möchte auch nicht unbedingt meine Daten ins Netz stellen
Mit einem Bild erscheint wenigstens nichts von mir in den Suchmaschinen

z.B. Identitätsklau, mit meinen Daten könnte sich jemand irgendwo anmelden.....

Bin auch Tomm´s Meinung
 
@Elroy: Dein Tipp mit der .htaccess ist gut. Und wir wollten ja genau das erreichen, dass man bei einer Suchmaschineneingabe nicht das Impressum (Bild- oder Textsuche) findet.
 
Werbung:
Zurück
Oben