perlunity.de - PERL | JAVASCRIPT | PHP | MySQL | APACHE



#!/COMMUNITY

Members: 5598
davon online: 1
weitere User: 1
Click for quality!



22.04.2018 / 20:31

Community-Member werden   |   Paßwort vergessen   |   OnlineMonitor (1) Wer ist online ... OnlineMonitor starten !
     

 

Home


PERLscripts


PHPscripts


JAVAscripts


Hilfreiches


Links2www


Newscenter


Community


Interna




Szene.News  »  Robots.txt 2.0 - mehr Kontrolle für Webseitebetreiber

04.12.2007 / 15.22

ACAP (Automated Content Access Protocol) ist ein offener Standard der von zahlreichen Verlagen und Nachrichtenagenturen entwickelt wird. Webseitebetreiber soll damit mehr Kontrolle darüber gegeben werden, was die Suchmaschinen mit den gefundenen Inhalten anstellen. Voraussetzung ist aber, das die großen Suchmaschinenbetreiber sich an die "Robots.txt 2.0" halten, bislang ist keine Unterstüztung signalisiert.

Mithilfe des ACAP wäre es zum Beispiel möglich festzulegen, wie lange die Suchmaschinen die gespiderten Inhalte speichern dürfen. Auch das grundsätzliche Untersagen verschiedenen Links auf der Seite zu folgen, wäre mit ACAP relativ leicht zu realisieren.

ACAP kann bereits auf Webseiten integriert werden, und steht in der Version 1.0 ab sofort zur Verfügung. Ein Effekt bleibt jedoch aus, denn noch haben Google, Yahoo und Microsoft nicht angekündigt, ACAP zu unterstützen. Allerdings ist es auch nicht ausgeschlossen, das sie dies künftig tun.


URL:   http://www.the-acap.org/
Autor:Marky
E-Mail:support@perlunity.de



zurück zur Übersicht  |  Szene.News eintragen



Kommentare

Noch keine Kommentare vorhanden.

Kommentar anfügen








-
-