frankx: google findet unverlinkte seiten weil ...

Hellihello,

... sie in einem Browser (FF und/oder IE ??) mit Google-Toolbar in der _Adressleiste_ wohlgemerkt eingegen wurden?

... sie an ein gmail-konto verschickt wurden?

Eigentlich müsste es ersteres sein. Das ist mir nun schon mehrfach passiert, dass Subdomains wie test.example.com oder umbau.example.com sehr schnell (;-) bei Google auftauchten. M.E. ohne Verlinkung, sondern nur Testen im Browser und Verschickung per Mail (nicht immer an gmail).

Dank und Gruß,

frankx

--
tryin to multitain  - Globus = Planet != Welt
  1. Hellihello

    ... sie in einem Browser (FF und/oder IE ??) mit Google-Toolbar in der _Adressleiste_ wohlgemerkt eingegen wurden?

    ... sie an ein gmail-konto verschickt wurden?

    Oder so ein Page-Rank addon (oder ist das Teil der Toolbar???).

    Dank und Gruß,

    frankx

    --
    tryin to multitain  - Globus = Planet != Welt
    1. hi,

      das gleiche Problem hatte ich auch mal.
      Du warst sogar mit an dem Thread beteiligt ;)

      mfg

      --
      „Wenn du nicht bereit bist, dafür zu sterben, dann streiche das Wort »Freiheit« aus deinem Vokabular.“ -- Malcolm X
      I Have a Dream
      1. Hellihello

        das gleiche Problem hatte ich auch mal.
        Du warst sogar mit an dem Thread beteiligt ;)

        Ja, aber ich habe die Dinger komplett entfernt (dachte ich) und trotzdem tauchen die Testsubdomains auf. Vielleicht hatten wir ja noch was vergessen...???

        Dank und Gruß,

        frankx

        --
        tryin to multitain  - Globus = Planet != Welt
    2. Hellihello

      Oder so ein Page-Rank addon (oder ist das Teil der Toolbar???).

      Da ich das alles runtergeschmissen habe, bin ich mir nicht mehr sicher, ob das getrennte Tools sind...;

      Vielleicht hab ich ja doch nicht alles in allen Testbrowsern entfernt oder die beteiligten Personen hatten doch auch irgendsoein Tool oder Googlemail-Daten werden doch auch ausgewertet ...;

      Dank und Gruß,

      frankx

      --
      tryin to multitain  - Globus = Planet != Welt
  2. Hi,

    was mir wieder einmal zeigt wie es eigentlich sein sollte:

    Nicht indexieren automtisch erlauben sondern genau umgekehrt, automatisch verbieten bis zur expliziten Erlaubnis.

    http://forum.de.selfhtml.org/archiv/2008/4/t170202/#m1113307

    Peter

    1. Hi,

      Nicht indexieren automtisch erlauben sondern genau umgekehrt, automatisch verbieten bis zur expliziten Erlaubnis.

      Wer zu blöde ist, zusammen mit der ersten Webseite eine robots.txt oder einen Zugangsschutz zu installieren, der sollte seine Finger vom Web lassen. Und wer ins Web geht, ohne die "öffentliche" Natur des Webs zu kennen, der sollte erst recht seine Finger davon lassen. Und wer es dennoch tut, der sollte sich Gedanken darüber machen, ob er a) die falsche Einsteigerliteratur hatte oder b) den falschen Webdesigner (oder sonstige Person, die ihm zu den ersten Schritten verholfen hat - denn ohne Wissen und von alleien kommen die Seiten ja nicht ins Netzt) ...

      Gruß, Cybaer

      --
      Man muß viel gelernt haben, um über das, was man nicht weiß, fragen zu können.
      (Jean-Jacques Rousseau, Philosoph u. Schriftsteller)
      1. Hellihello Cybaer,

        ich les immer nur "blöde".

        Dann weißt Du vielleicht, ob googlemails nach URLs von Google durchsucht werden?

        Dank und Gruß,

        frankx

        --
        tryin to multitain  - Globus = Planet != Welt
        1. Hi,

          ich les immer nur "blöde".
          Dann weißt Du vielleicht, ob googlemails nach URLs von Google durchsucht werden?

          Zwei wichtige Dinge wurden bereits genannt:
          1. Google scannt GMails (Teil der AGB)
          2. "Security by obscurity" ist *prinzipiell* für'n Arsch.

          Daraus, und noch aus vielen anderen Dingen, ergibt sich zwangsläufig:
          Stelle nichts ins Internet, was nicht jeder sehen können soll (bezieht sich nicht nur, aber auch aufs Web). Wenn Du nicht möchtest, daß die Dinge, die Du ins Web stellst, für jeden sichtbar sind, dann beschränke den Zugang. Punkt.

          Ähnlich sinnfrei wäre es, nur via Postkarten zu kommunizieren, und sich hinterher darüber zu wundern, daß deine Nachbarschaft sich (auch) an deiner neuen Penispumpe erfreut. Was nicht für die Öffentlichkeit gedacht ist, gehört in einen verschlossenen Brief.

          Beides, Brief & Website kann "gehackt" werden. Das ist zwar nicht tröstlich, aber immerhin jeweils eine Straftat ...

          Gruß, Cybaer

          --
          Man muß viel gelernt haben, um über das, was man nicht weiß, fragen zu können.
          (Jean-Jacques Rousseau, Philosoph u. Schriftsteller)
          1. Hellihello Cybaer und Jens

            Zwei wichtige Dinge wurden bereits genannt:

            1. Google scannt GMails (Teil der AGB)
            2. "Security by obscurity" ist *prinzipiell* für'n Arsch.

            Daraus, und noch aus vielen anderen Dingen, ergibt sich zwangsläufig:
            Stelle nichts ins Internet, was nicht jeder sehen können soll (bezieht sich nicht nur, aber auch aufs Web). Wenn Du nicht möchtest, daß die Dinge, die Du ins Web stellst, für jeden sichtbar sind, dann beschränke den Zugang. Punkt.

            Ähnlich sinnfrei wäre es, nur via Postkarten zu kommunizieren, und sich hinterher darüber zu wundern, daß deine Nachbarschaft sich (auch) an deiner neuen Penispumpe erfreut. Was nicht für die Öffentlichkeit gedacht ist, gehört in einen verschlossenen Brief.

            Beides, Brief & Website kann "gehackt" werden. Das ist zwar nicht tröstlich, aber immerhin jeweils eine Straftat ...

            Es geht ja um zwei Dinge: Zum einen möchte man nicht _unbedingt_ mit einer Subdomain gelistet werden, weil die ja später zur Hauptdomain wird (google=keine doppelten Seiten).

            _Aber_: der (Aber-)Witz ist doch, dass viele sich Beine ausrenken, um überhaupt gelistet zu werden ...; (;-). Der Erkenntnis lässt sich also durchaus positives abgewinnen. Ich wollte mich ja auch garnicht "beschweren", sondern eher den Horizont für mein technisches Verständnis erweitern.

            Bei Google ist ja auch viel Rätselraten (Javascript als Stichwort). Dass Google sämtliche Möglichkeiten an Subdomains per Zufallsgenerator abklappert, mag ich garnicht glauben. Zumal sie ja eigentlich im Wesentlichen und zu Recht ja an Seiten interessiert sind, die verlinkt sind (Link => Pagerank [nicht nur aber auch und ja in den meisten Fällen zu Recht])

            Dank und Gruß,

            frankx

            --
            tryin to multitain  - Globus = Planet != Welt
            1. Hi,

              Es geht ja um zwei Dinge: Zum einen möchte man nicht _unbedingt_ mit einer Subdomain gelistet werden, weil die ja später zur Hauptdomain wird (google=keine doppelten Seiten).

              1. Dann sperre Bots aus. robots.txt und/oder (z.B.) .htaccess ist das allererste, was auf eine Domain sollte, sofern der Inhalt nicht frei verfügbar ist.
              2. "Doppelte Seiten" = "urban legend". Doppelten Content (als Negativmerkmal) auf einer SLD gibt es nicht. Bei doppeltem Content auf unterschiedlichen Domains, wird einer höher bewertet, als der andere. Der höher bewertete ist üblicherweise der ältere/zuerst gefundene Content.

              Ich wollte mich ja auch garnicht "beschweren", sondern eher den Horizont für mein technisches Verständnis erweitern.

              Man kann ggf. nicht definitiv sagen, wie Google an eine konkrete Domain gekommen ist. Möglichkeiten gibt es dazu einige (Suche in Google selbst, GMail, Usenet, Chrome, Google-Toolbar, ...)

              Bei Google ist ja auch viel Rätselraten (Javascript als Stichwort).

              ?

              Zumal sie ja eigentlich im Wesentlichen und zu Recht ja an Seiten interessiert sind, die verlinkt sind (Link => Pagerank [nicht nur aber auch und ja in den meisten Fällen zu Recht])

              Der PR ist nur eines von vielen Kriterien - und noch nicht mal das wichtigste.

              Aber von einem URL zu erfahren, und nicht zu spidern, wäre von einer SE prinzipiell dumm (schon aus Wettberwerbsgründen). Wenn das nicht erwünscht sein sollte: s.o. Punkt 1) - dafür ist es gedacht.

              Gruß, Cybaer

              --
              Man muß viel gelernt haben, um über das, was man nicht weiß, fragen zu können.
              (Jean-Jacques Rousseau, Philosoph u. Schriftsteller)
  3. Tach,

    google findet unverlinkte seiten weil ...

    vorallem, da sie veröffentlicht wurden in einem öffentlich zugänglichen Raum (auch wenn die Ecke auf den ersten Blick recht dunkel ausgesehen haben mag).

    mfg
    Woodfighter

    1. Hellihello

      vorallem, da sie veröffentlicht wurden in einem öffentlich zugänglichen Raum (auch wenn die Ecke auf den ersten Blick recht dunkel ausgesehen haben mag).

      Du bist lustig. Also eine Seite xyz.example.com/test die ich nie in einem browser eingab und nie per Mail verschickte, _können_ sie ja nicht finden.

      Meine Pageranktools und Toolbars habe ich eigentlich alle gekillt, nun fragte ich mich, ob googlemail auch urls ausliest. Denn per Mail wurden die verschickt, u.a. an eine googlemail-account

      Dank und Gruß,

      frankx

      --
      tryin to multitain  - Globus = Planet != Welt
      1. Tach,

        Du bist lustig. Also eine Seite xyz.example.com/test die ich nie in einem browser eingab und nie per Mail verschickte, _können_ sie ja nicht finden.

        Security through obscurity is no security at all. Spammer schreiben auch Mailadressen an, die nie jemand genutzt hat; die Suchmaschinen haben das "Deep Web" doch schon vor langer Zeit zur Fahndung ausgeschrieben.

        Meine Pageranktools und Toolbars habe ich eigentlich alle gekillt, nun fragte ich mich, ob googlemail auch urls ausliest. Denn per Mail wurden die verschickt, u.a. an eine googlemail-account

        Ja natürlich, GMail liest die Texte mit; steht in den Vertragsbedingungen auch relativ klar drin und hat bei Erscheinen einen großen Wirbel verursacht.

        mfg
        Woodfighter