• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

[Technik] Searx - Freie Metasuchmaschine zum selbst hosten

Searx ist eine quelloffene Metasuchmaschine die auf Wunsch die Indizes von bis zu 70 Onlinequellen durchsucht. Zu diesen Quellen gehören unter anderem Google, Bing, Wikipedia und Wolfram Alpha. Aber auch Stackoverflow, Github, Spotify und Deezer lassen sich damit durchsuchen.

Der Unterschied zu anderen Metasuchmaschinen wie Startpage ist, dass man sich Searx auf den eigenen Webserver installieren kann. Selbst eine Betrieb auf einem Raspberry Pi soll möglich sein. In allen Fällen wird allerdings Python benötigt. Ein normaler Webspace mit PHP reicht also nicht aus.

Unter searx.de kann auch ohne eigene Installation die Metasuchmaschine genutzt werden. Laut den Entwicklern werden keine Nutzerdaten gesammelt. Weiterhin gibt es bereits mehr als 30 öffentlich nutzbare Instanzen der Suchmaschine. Eine Liste dieser findet man unter http://stats.searx.oe5tpo.com/. Auch wird Searx bereits als Tor-Hidden-Service angeboten (http://eb6w5ctgodhchf3p.onion/ http://searchb5a7tmimez.onion/ und http://ulrn6sryqaifefld.onion/).

Quelle: Golem.de
 

mathmos

404

Registriert
14 Juli 2013
Beiträge
4.415
  • Thread Starter Thread Starter
  • #21
Ok so wird mir das schon klarer. Macht für mich damit also keinen Sinn bzw. ist den Aufwand nicht wert...

Wird es unterm Strich vermutlich für die wenigsten. Aber die Liste öffentlichen Instanzen wird immer größer. Die kann man ja auch nutzen. Oder man bleibt halt bei den normalen Suchmaschinen seiner Wahl.

Das stimmt nur bedingt: Wenn du die Suchmaschine selbst, daheim (nur für dich) hostest, dann kann z.B. Google genauso ein Profil erstellen.
Ob du nun direkt auf Google oder über eine Meta-Suchmaschine auf Google zugreifst, das Profil wird erstellt und an dich angepasst.

Möglich, dass ich hier einen Denkfehler habe. Aber Google sollte es über den Umweg über eine Meta-Suchmaschine deutlich schwerer haben zu protokollieren, welche Suchergebnisse ich tatsächlich aufgerufen habe.

Das ist nur ein Vorteil, wenn die verschiedenen Quellen tatsächlich unterschiedliche Indizes besitzen. Die großen Suchmaschinen sind vermutlich alle mehr oder weniger gleich und gleichermaßen zensiert.

Searx kann aktuell bei über 70 Quellen Anfragen stellen. Die großen Suchmaschinen sind hier zwar mit dabei, aber auch sehr viele andere, zum Teil spezialisierte Quellen.

Die Ausgabe kann ich auch für die Google-Suche beeinflussen, sei es ich binde mir die Suche in eine eigene Seite ein, oder über eine Erweiterung.

Oder man schreibt eine komplett neue Suchmaschine. Oder oder oder.

Alleine dass man von Haus aus bei Searx angezeigt bekommt, aus welcher Quelle der Treffer stammt, finde ich z. B. nicht schlecht.

Auch so dinge wie endlos-Scrollen sind möglich...

Das wäre für mich durchaus angenehm. Hast du hierzu eine Quelle wie man das bei Google einstellen kann?

Aber ich finde auch 0 Vorteil / Sinn an dieser selbst gehosteten Meta-Suchmachine...

Dann bist du einfach nicht Teil der Zielgruppe. Ist doch in Ordnung. Ich finde z. B. auch null Sinn an Facebook und Co. Und trotzdem benutzen es Millionen oder gar Milliarden Menschen.
 

saddy

Bekannter NGBler

Registriert
16 Juli 2013
Beiträge
4.038
Ort
*.*
Der Vorteil ist, dass z. B. Dritte kein kein Profil deiner Suchanfragen erstellen. [...]
Eine Zensur kann man damit meiner Meinung nach nicht umgehen. Außer vielleicht wenn Suchmaschine X zensiert wenn eine IP aus Land X eine Anfrage stellt und man Searx auf einem Server mit einer IP aus Land Y hostet.


Zum Profil mit den Suchanfragen: Warum eigentlich nicht?
Mal angenommen, ich hoste die Suchmaschine bei mir und bin dann der einzige User - Welchen Unterschied macht dass dann? Außer, dass google nicht noch cookies bei mir setzt, ist dann doch nichts anders oder hab ich da ein Verständnisproblem?
 

sia

gesperrt

Registriert
26 März 2015
Beiträge
5.931
Ort
FFM (NSFW)
@saddy: schon richtig. Deswegen sollte man so eine Suchmaschine mit mindestens drei Nutzern bestücken, komplett private Instanzen sind imho recht sinnfrei ;)
 

virtus

Gehasst

Registriert
24 Apr. 2015
Beiträge
1.689
Ort
AUF DEM MOND
Möglich, dass ich hier einen Denkfehler habe. Aber Google sollte es über den Umweg über eine Meta-Suchmaschine deutlich schwerer haben zu protokollieren, welche Suchergebnisse ich tatsächlich aufgerufen habe.
Ist dir vielleicht noch nicht aufgefallen, aber wenn du ein Suchergebnis bei Google aufrufst, dann rufst du nicht direkt das Suchergebnis von Google auf, sondern zunächst eine spezielle Google-Seite, die dann unmittelbar zum Suchergebnis weiterleitet.
Du kannst dir das so vorstellen, die bei diesen Link-Anonymisierern, die im Webwarez-Bereich gerne verwendet werden. Nur dass Google selbst keine Verzögerung bei der Weiterleitung einbaut, sondern dich unmittelbar weiterleitet.

Googlesuche nach Weltall:
[src=html5]<a href="https://de.wikipedia.org/wiki/Universum" onmousedown="return rwt(this,'','','','6','AFQjCNE8wtGbq5_KVQ7Fesd6oC0DY4IzAg','','0ahUKEwj905vdi5DPAhWDXRQKHb6CAecQFggxMAU','','',event)">Universum – Wikipedia</a>[/src]

Beim Klick auf den Link:
[src=text]https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=6&cad=rja&uact=8&ved=0ahUKEwj905vdi5DPAhWDXRQKHb6CAecQFggxMAU&url=https%3A%2F%2Fde.wikipedia.org%2Fwiki%2FUniversum&usg=AFQjCNE8wtGbq5_KVQ7Fesd6oC0DY4IzAg[/src]

Ergebnis: Du landest bei Wikipedia.

Kurz gesagt: Wenn deine Meta-Suchmaschine nicht in der Lage ist, die Links vollständig aufzulösen, dann wird Google trotzdem wissen, dass du einen bestimmten Link aufgerufen hast. Da hilft dann übrigens auch nicht, wenn du die Meta-Suchmaschine mit mindestens 3 weiteren Leuten nutzt. ;)



Searx kann aktuell bei über 70 Quellen Anfragen stellen. Die großen Suchmaschinen sind hier zwar mit dabei, aber auch sehr viele andere, zum Teil spezialisierte Quellen.
Welche wären das denn zum Beispiel? Ich wüsste nicht, welchen Vorteil ich davon haben sollte.
Die großen Suchmaschinen dürften in vielen Fällen auch das enthalten, was die "spezialisierten Quellen" aufweisen.
Ein konkretes Beispiel: Es macht keinen Unterschied, ob man
direkt auf Wikipedia nach
[src=text]"Begriff den ich suche"[/src]
sucht oder ob man bei Google nach
[src=text]"Begriff den ich suche" -site:wikipedia.org[/src]
sucht.

Einfacher gesagt: Wieso sollte eine spezialisierte Suchmaschine andere Inhalte finden, als Google? Sind wir mal ehrlich, wahrscheinlich kann eine spezialisierte Suchmaschine zwar Inhalte speziell zu einem Bereich liefern, aber ich sehe keinen Grund, warum sie mehr Inhalte finden sollte, als Google. Google wird wahrscheinlich nur deutlich mehr "drum herum" finden, das nicht speziell zu diesem Bereich gehört, was für dich ggf. für eine gewisse Unübersichtlichkeit sorgt.


Ich könnte mir höchstens vorstellen, dass man einen Vorteil erfährt, wenn ein bestimmter Crawler hinterlegte robots.txt-Files ignoriert. Google und Co halten sich zumindest bei der Übernahme in den Index ausnahmslos an Indexierungs-Regeln der robots.txt. Es gibt jedoch einige Crawler, die die robots.txt ignorieren und daher Inhalte in ihren Index übernehmen, die die Website-Betreiber explizit von einer Indexierung ausgeschlossen haben.


Übrigens: Google war lange Zeit die einzige (?!) Suchmaschine, die JavaScript-Inhalte auswerten konnte. Google hat also nicht nur den HTML-Inhalt einer Website ausgewertet, sondern konnte Websites genauso wahrnehmen, wie ein Besucher sie wahrnehmen konnte. Damit war Google vielen weiteren Suchmaschinen deutlich voraus. Mittlerweile sind aber auch andere auf diesen Zug aufgesprungen.
 
Oben