• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Frage Seite

SteffenSemtex

Neues Mitglied
Hallo ich bin neu und kenne mich kaum mit Programmierung aus.
Ich habe da mal eine Frage ein Kumpel hat mir eine Seite programmiert was Automatisch nach inhalten durchsucht.

beispiel:Bilder als Keyword und geht automatisch weiter.

Jetzt meine Frage ist es möglich
Den link der Seite als TXT Datei abzuspeichern Automatisch.

Ich habe zwar Google schon durchsucht, aber ich kenne leider nicht den Fachbegriff dafür.

Ich würde mich freuen über eine Antwort.

MfG

PS ich bin auch bereit dafür ein paar Bitcoin´s zu zahlen.
 
Werbung:
Glaubst du ernsthaft, irgendjemand versteht deine Frage?
Woher sollen wir wissen, was dein 'Kumpel' da für dich programmiert hat, geschweige denn, welcher Link da automatisch als TXT gespeichert werden soll?
 
Werbung:
Ja so meinte ich das ungefähr

Blos es sollte nicht soviel schnick schnack sein.

im prinzip sollte es im hintergrund mitlaufen.

die Seite die ich habe hat eine API wo durch Automatisch alle 8 Sekunden weiter geht zu nästen
Seite.

Er durchsucht nach einer Bestimmten inhalt.

Blos will ich das es in einer TXT abgespeichert wird wenn der den Inhalt gefunden hat, als Link der Seite die ich habe.


Es sind üner 500000000000 Unterseiten die er Automatisch durchsucht.
Blos er macht kein Stop wenn er es Gefunden hat, und speichert es leider nicht ab per TXT
 
Ja wie gesagt mit php geht das,da kannst du das gefundene mit in einer txt Datei schreiben.
Ob es noch andere möglichkeiten gibt weiß ich nicht aber mit php ist das recht einfach.
Bei mein Script sind das nur 2 Zeilen die das Ergebniss in der txt schreibt
 
Werbung:
Ja wie gesagt mit php geht das,da kannst du das gefundene mit in einer txt Datei schreiben.
Ob es noch andere möglichkeiten gibt weiß ich nicht aber mit php ist das recht einfach.
Bei mein Script sind das nur 2 Zeilen die das Ergebniss in der txt schreibt


Wie gesagt könntest du sowas, ich habe dir auch eine Private nachricht zu geschreiben.
 
Werbung:
Dann hoffe ich mal, dass er das Angebot nicht annimmt, denn seine PHP-Kenntnisse sind noch sehr rudimentär

Genau, deswegem stelle ich seine frage jetzt auch hier.
wie gesagt meine seite ist noch mit JAVA
Die inhalte die dort kommen werden generiert.
Die Seite geht von index.php?1 bis
index.php?4631683569492647816942839400347516314113502571162996175304206525660726459774
Diese Seite ist mit einer API verknüpft was im hintergrund was anders Checkt alle 8 Sekunden es ist eine zeitschleife.
Wenn ich jetzt sagen wir mal die Nummer 1000 suche, und er sie finden sollte er sie mir dann abspeichern in einer TXT
Quasi
Die Seite
www.oma.de/index.php?343254353456346546
Dort hat der den inhalt mit der 1000 gefunden
und soll nur in der TXT datei diesen link abscheichern auf dem Hoster natürlich.
www.oma.de/index.php?343254353456346546

Habe gesagt das ich es bei mir in den Script so speicher
PHP:
<?php
$speicherort='name_textdatei.txt';
$variable="Hier stehen deine Links \n";
if (file_exists($speicherort)){
 
file_put_contents($speicherort, $variable, FILE_APPEND);
 
}else{
$datei = fopen($speicherort,"w");
echo fwrite($datei,$variable);
fclose($datei);
}
?>

Dann kam
und zwar ich bräuchte das doch mit der suchfunktion bitte.
Da passe ich erstmal.Für mich selbst würde ich es vieleicht hinbekommen,aber ist bestimmt nicht gut genug das zu empfehlen
 
Werbung:
Ich frage mich gerade welche Seite 500 Milliarden Unterseiten hat ?
Wußte nichtmal das es überhaupt so viele Seiten im Netzt gibt.

Jetzt brauchst du ein Script was die 500 milliarden Seiten nach ein Wort durchsucht und das Ergebniss dann in einer Textdatei speichert ??
 
Zuletzt bearbeitet:
Werbung:
Vergiss es... rechne doch mal aus, wie lange die Suche dauert, wenn der Suchvorgang für einer Seite (nur) 10 Millisekunden dauert - wie viele Jahre willst du auf ein Ergebnis warten?
 
Vergiss es... rechne doch mal aus, wie lange die Suche dauert, wenn der Suchvorgang für einer Seite (nur) 10 Millisekunden dauert - wie viele Jahre willst du auf ein Ergebnis warten?


Naja meine Rechner laufen den Ganzen tag, mir ist es egal ob es nach 1 Woche ein suchergebnis gibt oder erst nach einem Jahr.


Meine Frage ist nur ob ihr sowas machen könnt und gerne würde ich dafür auch was Bezahlen, ( Falls es hier nicht erlaubt ist dann Sorry.)
 
Die 500 Milliarden Seiten glaube ich nicht.

Da steigt dir auch jeder Server bei der Suche aus.
 
Werbung:
Zurück
Oben