Fr. 26.09.2008
22:26 Uhr
#2
- Registriert seit
- 14.09.2006
- Beiträge
- 3.766
- Beitragswertungen
was soll indexiert sein?
naja, aufjedenfall kann man das mit php und sql machen ... einfach per php eine sql abfrage machen wieviel daten schon dort und hier hochgeladen worden sind und da eben wiedergeben ^^
is eigentlich recht simpel - denk ich
Nimm das Leben nicht zu ernst, du kommst sowieso nicht lebend raus.
Fr. 26.09.2008
23:22 Uhr
#3
- Registriert seit
- 03.11.2006
- Beiträge
- 2.925
- Beitragswertungen
mit php kann man auch Seitenanalysen schreiben...
für ein System einer Seite (die meisten dl-Seiten haben das Underground-CMS), kann man auch einen Analyse-Algorythmus schreiben.
Das ist so wie bei ilch:
Alle Downloads werden unter seite.tld/index.php?downloads zu finden sein.
Dann werden Dateien unter ?downloads-show-[ID] zu finden sein.
und wenn dann noch im html-code sowas wie id="dl-description" steht, dann wird das natürlich auch noch leichter auslesbar.
Wahrscheinlich könnte man auch andere Algorythmen machen, die dynamischer sind...
Die Daten werden dann in eine Relation indexiert, weil es einfach zu viel Prozessorleistung verbrauchen würde, wenn man bei jeder Suche alle seiten analysieren muss.
(das ist so wie beim Dateisystem einer Festplatte)
wahrscheinlich wird der Algorythmus per cronjob jede woche ausgeführt.
Sa. 27.09.2008
14:23 Uhr
#4
- Registriert seit
- 28.10.2007
- Beiträge
- 85
- Beitragswertungen
hat jemand hier erfahrung mit solch einem script oder kannmir jemand irgendein script in dieser art empfehlen. würde mich dafür interessieren
So. 28.09.2008
16:33 Uhr
#6
- Registriert seit
- 21.01.2006
- Beiträge
- 2.659
- Beitragswertungen
du musst auch erstmal das file öffnen..
Zitat geschrieben von
loW
Ja ich habs gesehen und wenn ichs kostenlos bekomm dann zahl ich doch nix dafür oder?