• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Frage Seite

Werbung:
Boahhhhhhh!!!!! Rechne doch mal 500 Milliarden Seiten a. 10 Millisekunden! Das Endergebnis erlebst du gar nicht mehr. Das ist Schwachsinn hoch 9

Und die 10 Millisekunden sind doch schön gerechnet.

Und dein Screenshot sagt gar nichts aus.
 
Werbung:
Das ist nicht hammerhart, das ist schlicht und einfach nicht möglich.
Natürlich ist es möglich, ich könnte sie auch alles per TXT runterladen und dann mit Finder durchsuchen.

Blos wenn ich es alles runterlade und per TXT abspeicher, naja soviele Festplatten habe ich nicht.

Deswegen meine Frage ich will es im hintergrund da mit laufen haben.

Es muss ja nicht auf seine 500000000 sein es kann auch nur auf Seite 343234 sein, und solange dauert es ja dann nicht mehr.

m.scatello ich bezahle dir auch was dafür, mir ist es egal ob es auch 10 Jahre dauert blos ich benötige es einfach.
 
Werbung:
@SteffenSemtex ... damit du die nächsten 158 Jahre was zu tun hast, hier ist wie es im Prinzip geht..
PHP:
<?php

/*  Suchwort festlegen */
$suchwort="bilder";
/*
Das Wort kann auch über POST oder GET übermittelt werden - dann:

   if(isset($_POST['suchwort']))
     {$suchwort = $_POST['suchwort'];}

oder

   if(isset($_GET['suchwort']))
     {$suchwort = $_GET['suchwort'];}
*/


/* Hier muss jetzt eine Loop - Funktion eingebaut werden, die bei jedem Durchgang die Variabel $datei mit dem Pfad zu der zu durchsuchenden Datei befüllt
*/
$datei = "http://irgendwas.de/index.html";  /* Wo auch immer das herkommt */
$dump = file_get_contents($datei);
if(stripos($dump, $suchwort))
  {$speichern = fopen("adressen_speicher.txt", "a");
   fwrite($speichern, $datei."\n");
   fclose($speichern);
  }
/*Hier ist der Loop zu Ende - $datei mit nächster Adresse befüllen und Loop wiederholen */

?>
Nur wird dein Server keine 158 Jahre durchhalten... nach ca 30 Sekunden wird er die Bearbeitung abbrechen. Dafür wird dein Provider schon sorgen, dass du ihm den Server nicht lahm legst!
 
Werbung:
müsste man das nicht anders machen ?.
Wie ich verstanden habe sind die urls zb bla.de/1 bis .bla.de/500000000

Ich hätte jetzt eine for schleife oder so gemacht die dann die url bla1 bis bla 500 miliarden durchläuft die seite öffnet und da das suchwort sucht.

Ich könnte natürlich auch wieder daneben liegen wie immer .
aber die 158 Jahren wären ja das gleiche:)

Mich würd das ankotzen wenn er nach 2 Stunden schon nix findet
 
Wie auch immer der Loop mit der Suchfunktion aussehen soll ;)
Von mir aus auch
for($a = 0; $ < 500000000000; $a++)
Aber das ist ja nur eine akademische Frage... es wird ja eh nicht funktionieren. Versuche doch mal einen solchen Loop (mit leeren Argumenten drin) auf deinem Server laufen zu lassen und dann miss die Zeit, bis dein Server dir ein NoGo gibt!
 
ja sein vorhaben hat einfach kein sinn .Egal wie man das macht.Stell dir vor er findet nach 10 Jahren auf einmal eine Seite mit den Suchwort. Ich wüßte nach 10 Jahren gar nicht mehr was ich da wollte.

Er hat ja jetzt was er brauch,obwohl es für uns kein sinn macht. Ich habe auch schon viel Müll zusammen geschrieben was kein sinn ergeben hat,aber das übertrifft mich wohl in weiten.
 
Werbung:
Wären es 500 Milliarden Dateien, würdest Du vermutlich eine der größten Festplatten haben die es derzeit gibt - oder ein Servercluster. Oder ein selbstentwickeltes Dateisystem verwenden, welches so viele Dateien überhaupt erfassen kann. Ext4 bspw. erlaubt maximal 4 Milliarden Inodes - reicht für dich nicht aus.

Woher nimmst Du diese Zahl? Von deinem Screenshot kann man das nicht nachvollziehen ..
 
Zurück
Oben