Autor Gast
Datum 23.03.2008 17:49
Beiträge: Habe gestern ein Update auf 2.4.11 gemacht - und kann mich seither nicht mehr einloggen.

Wenn ich PW & Captcha eingebe, dann werde ich auf die index.php weitergeleitet - wo ich aber wieder nicht angemeldet bin.

Passiert mir sowohl beim FF als auch beim IE6 - andere Browser habe ich nicht ausprobiert.



Cookies & sonstige Dateien (Cache, ...) habe ich schon alle gelöscht - Fehlanzeige. Any Ideas?



Danke,

Boby



[ Diese Nachricht wurde bearbeitet von: Boby am 23.03.2008 19:35 (Originaldatum 23.03.2008 17:49) ]


Autor spinne
Datum 23.03.2008 17:57
Beiträge: hmm was für eine url codierung hast du denn gehabt? seo?


Autor stefan
Datum 23.03.2008 18:34
Beiträge: betrifft das nur dich ober auch andere


Autor Gast
Datum 23.03.2008 18:37
Beiträge: @Spinne: Hmmm...habe seit eh & jeh verschlüsselte URL's (mittlere Stärke) - habe an der Einstellung nichts geändert (müsste "nicht optimiert" sein).
@Stefan: Auch mein Testuser geht nicht - werde mal den PC wechseln um zu sehen, ob's an der Maschine liegt.

Ich rühr mich wieder...

Danke,
Boby


Autor Gast
Datum 23.03.2008 18:50
Beiträge: Gleiches Problem bei XP/IE7 mit meinem und Testuser - d.h. der Fehler hängt nicht vom verwendeten Browser oder User ab...

Ciao,
Boby


Autor stefan
Datum 23.03.2008 19:03
Beiträge: Mit User meinte ich eigentlich einer der nicht von dir ist.

Ich möchte ausschliessen das deine IP gesperrt ist. Wenn deine IP gesperrt wäre würde ja kein Anmeldeversuch von dir gehen.

Wenn du mal eben deine IP wechseln könntest oder wir müssten in die DB schauen


Autor Gast
Datum 23.03.2008 19:05
Beiträge: Nö, läuft alles über den gleichen Router. In welcher Tabelle werde ich fündig?


Autor Gast
Datum 23.03.2008 19:09
Beiträge: Hmmm...ich habe seit ein paar Stunden den GSiteCrawler im Hintergrund laufen, um eine Google-Sitemap erstellen zu können. Kann es sein, dass aufgrund der vielen Zugriffe von meiner IP (> 10.000) ich deshalb ausgesperrt wurde???

Ciao,
Boby


Autor Gast
Datum 23.03.2008 19:11
Beiträge: Habe den Crawler jetzt gestoppt - und konnte mich wieder anmelden. Danke für den Hint. Kann ich das temp. abschalten? Verbergen sich dahinter die "DOS"-Einstellungen?

Danke,
Boby


Autor stefan
Datum 23.03.2008 19:22
Beiträge: Ja ist aber vermutlich nicht nur die "DOS" Einstellung, bin mir nicht sicher ob man das so einfach umgehen kann. Ich weiss aber auch nicht ganz was der "GSiteCrawler" da treibt. (Kenne ich nicht)


Autor Gast
Datum 23.03.2008 19:30
Beiträge: Ist ein nettes Tool:



GSiteCrawler Features



In general, the GSiteCrawler will take a listing of your websites URLs, let you edit the settings and generate Google Sitemap files. However, the GSiteCrawler is very flexible and allows you to do a whole lot more than "just" that!



Capture URLs for your site using



* a normal website crawl - emulating a Googlebot, looking for all links and pages within your website

* an import of an existing Google Sitemap file

* an import of a server log file

* an import of any text file with URLs in it



The Crawler



* does a text-based crawl of each page, even finding URLs in javascript

* respects your robots.txt file

* respects robots meta tags for index / follow

* can run up to 15 times in parallel

* can be throttled with a user defined wait-time between URLs

* can be controlled with filters, bans, automatic URL modifications



With each page, it



* checks date (from the server of using a date meta-tag) and size of the page

* checks title, description and keyword tags

* keeps track of the time required to download and crawl the page



Once the pages are in the database, you can



* modify Google Sitemap settings like "priority" and "change frequency"

* search for pages by URL parts, title, description or keywords tags

* filter pages based on custom criteria - adjust their settings globally

* edit, add and delete pages manually



And you have everything the way you want it, you can export it as



* a Google Sitemap file in XML format (of course ) - with or without the optional attributes like "change date", "priority" or "change frequency"

* a text URL listing for other programs (or for use as a UrlList for Yahoo!)

* a simple RSS feed

* Excel / CSV files with URLs, settings and attributes like title, description, keywords

* a Google Base Bulk-Import file

* a ROR (Resources of Resources) XML file

* a static HTML sitemap file (with relative or absolute paths)

* a new robots.txt file based on your chosen filters

* ... or almost any type of file you want - the export function uses a user-adjustable text-based template-system



For more information, it also generates



* a general site overview with the number of URLs (total, crawlable, still in queue), oldest URLs, etc

* a listing of all broken URLs linked in your site (or otherwise not-accessable URLs from the crawl)

* an overview of your sites speed with the largest pages, slowest pages by total download time or download speed (unusually server-intensive pages), and those with the most processing time (many links)

* an overview of URLs leading to "duplicate content" - with the option of automatically disabling those pages for the Google Sitemap file



Additionally ...



* It can run on just about any Windows version from Windows 95b on up (tested on Windows Vista beta 1 and all server versions).

* It can use local MS-Access databases for re-use with other tools

* It can also use SQL-Server or MSDE databases for larger sites (requires a seperate installation file).

* It can be run in a network environment, splitting crawlers over multiple computers - sharing the same database (for both Access and SQL-Server).

* It can be run automated, either locally on the server or on a remote workstation with automatic FTP upload of the sitemap file.

* It tests for and recognizes non-standard file-not-found pages (without HTTP result code 404).



... and much more! (if you can't find it here, send me a note and I'll either add it or show you how you can do it!)                           

Im Endeffekt wird damit eine vollständige sitemap.xml erzeugt, die dann bei Google bzw. eine urllist.txt bei Yahoo eingereicht werden kann.

Nach derzeitiger Hochrechnung werden mit allen Medien, Artikel,... ca. 23.000 Einträge erzeugt, die bei Google dann indiziert werden können.

Aktuell sind für meine Seite gerade mal 72 Seiten indiziert...



Ciao,

Boby





Diese Seite drucken
Diese Seite schließen

Dieser Artikel kommt von: OpenPHPNuke - das Open Source CMS

http://www.openphpnuke.info/