• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

OCH bash script (share-online)

Baster

Neu angemeldet

Registriert
5 Apr. 2015
Beiträge
68
HI

Ich möchte über Wget auf der Konsole SO Links downloaden, mit meinem Premium Account.

weiß jemanden wie das geht?

Ich habe vor einigen Jahren die gleiche frage auf gb gestellt Klick Leider konnte ich nicht weiter rumprobieren, weil mein acc abgelaufen war. Habe dann aufgehört und möchte nun wieder da weitermachen, wo ich damals aufgehört habe.



wenn ich jetzt mein so.sh ausführe wird eine Zeile ausgegeben, welche mit `URL:` beginnt

Code:
export http_proxy="https://USERNAME:PASSWORD@Server-Name:PORT"
wget --quiet -O- 'http://api.share-online.biz/cgi-bin?q=linkdata&username=XXX&password=ZZZ&lid=YYY'

wo

XXX = mein username
ZZZ = mein password
YYY= DL ID

Ich hoffe jemand kann mir da weiterhelfen

LG
 
Zuletzt bearbeitet:

Metal_Warrior

Defender of Freedom
Teammitglied

Registriert
10 Aug. 2013
Beiträge
6.830
Ort
/dev/mapper/home
Ich nehme an, dieser Link funktioniert. Dann sollte eigentlich dein Downloadbefehl
[src=bash]wget -q "$LINK"[/src]
sein. Das -O macht keinen Sinn, denn du gibst keinen Namen für die Ausgabedatei an (stattdessen ein Minus, d. h. Ausgabe auf stdout, was vielleicht Neo und Trinity hilft, aber dir nicht; keine Ahnung, warum der Fugu dir das damals so geschrieben hat).

Ich hoffe, ich hab dich mit deinem Problem richtig verstanden - du beschreibst es etwas wirr...
 

Baster

Neu angemeldet

Registriert
5 Apr. 2015
Beiträge
68
  • Thread Starter Thread Starter
  • #4
Danke

wenn ich

wget --content-disposition "http://api.share-online.biz/cgi-bin?q=linkdata&username=username&password=Passwort&lid=1234oiu147"

bekomme ich eine datei

cgi-bin?q=linkdata&username=username&password=Passwort=1234oiu147

LG
 
Zuletzt bearbeitet:

electric.larry

\''; DROP TABLE user; --
Teammitglied

Registriert
13 Dez. 2014
Beiträge
4.549
Ort
Raum 43
wenn das übergeben von login und Passwort auf diese art prinzipiell funktioniert und in der heruntergeladenen datei nicht nur irgendein HTML Quelltext von der free-download Seite ist, dann kannst du mit -O den filename der Datei angeben.wichtig hier ist KEIN space zwischen -O und dem filename (zB -Odateiname.ext).

ist in der heruntergeladenen file nur HTML source, dann musst du dir zuerst das cookie des OCHs besorgen und das dann beim Aufruf von wget bzw. curl mit angeben.könntest dich zB mit dem Browser anmelden und dir das cookie als Datei exportieren.
 

Baster

Neu angemeldet

Registriert
5 Apr. 2015
Beiträge
68
  • Thread Starter Thread Starter
  • #6
Hi electric.larry

ich benutze --content-disposition anstelle von "-O " damit die dateinamen aus der Header ausgelesen werden.

meine Share-online.sh

[src=bash]export http_proxy="http_proxy="https://USERNAME:PASSWORD@Server-Name:PORT"
wget --content-disposition --load-cookies=Share-online.txt -i links.txt
[/src]

Share-online.txt

[src=bash]# HTTP cookie file.
# Generated by Wget on 2015-07-04 12:59:18.
# Edit at your own risk.

# HTTP cookie file.
# Generated by Wget on 2015-07-04 12:59:18.
# Edit at your own risk.

.share-online.biz TRUE / FALSE XXXXXXXXXX __cfduid XXXXXXXXXX
.share-online.biz TRUE / FALSE XXXXXXXXXX sosid XXXXXXXXXX[/src]

und Trotzdem erhalte ich nur HTML dateien
 

Baster

Neu angemeldet

Registriert
5 Apr. 2015
Beiträge
68
  • Thread Starter Thread Starter
  • #7
Hallo

Hier ist meine genaue Vorgehensweise

cookie mit wget erstellen
[src=bash]wget --save-cookies=Share-online.txt "http://api.share-online.biz/cgi-bin?q=userdetails&username=xxxx&password=yyyy" 2>&1[/src]

in der Cookie .txt datei wird aber nur die UID gespeichert.
Share-online.txt

[src=bash]# HTTP cookie file.
# Generated by Wget on 2015-07-23 11:02:41.
# Edit at your own risk.

.share-online.biz TRUE / FALSE XXXXXXXXXX __cfduid XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX[/src]

Cookie .txt bearbeiten und sosid hinzufügen (keine Leerzeichen nur mit TAB jeweils eine)
Share-online.txt

[src=bash]
.share-online.biz TRUE / FALSE XXXXXXXXXX __cfduid XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
.share-online.biz TRUE / FALSE XXXXXXXXXX sosid XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
[/src]

Downloaden


wget --load-cookies=Share-online.txt -i links.txt

damit erhalte ich nur HTML dateien

PS:

Ich konnte mein beitrag nicht editieren wieso auch immer :/ daher sorry für den Doppelpost,

LG
 

0xFADED

$coffee->toCode();

Registriert
26 Juni 2015
Beiträge
115
Ort
XFxFQVJUSA==
Also so in etwa solltes gehen :)

[src=bash]
# Per API den Cookie "a" holen den wir später zum Download brauchen
curl 'http://api.share-online.biz/cgi-bin?q=userdetails&username=xxx&password=xxx' | grep a= > cookie.txt

# Die Download URL für die gewünschte Datei holen (hier 2AMG0TPNI1LN)
curl 'http://api.share-online.biz/cgi-bin?q=linkdata&username=xxx&password=xxx&lid=2AMG0TPNI1LN' | grep URL: | awk '{print $2}' > url.txt

# Die Datei runterladen (mit Cookie "a")
curl $(cat url.txt) --cookie $(cat cookie.txt) > datei.rar
[/src]

Achja die _cfduid ist nutzlos. Die benutzt Cloudflare nur zur DDoS Protection ;)

LG :coffee:
 
Zuletzt bearbeitet:

Baster

Neu angemeldet

Registriert
5 Apr. 2015
Beiträge
68
  • Thread Starter Thread Starter
  • #9
Danke greensn0w
ich erhalte diese meldung?

[src=bash] Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 254 0 254 0 0 3907 0 --:--:-- --:--:-- --:--:-- 5521
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 254 0 254 0 0 4970 0 --:--:-- --:--:-- --:--:-- 7937
curl: no URL specified![/src]

in cookie.txt
Code:
a=XXXXXXXXX
evtl weißt du ja wie man es mit wget realisiert?

finde wget igw. besser :o


und wie ist es wenn man zb die URLs aus eine input file holen um mehrere dateien parallel DL zü können (wget -i)

LG
 
Zuletzt bearbeitet:

0xFADED

$coffee->toCode();

Registriert
26 Juni 2015
Beiträge
115
Ort
XFxFQVJUSA==
ich erhalte diese meldung

[src=bash] Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 254 0 254 0 0 3907 0 --:--:-- --:--:-- --:--:-- 5521
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 254 0 254 0 0 4970 0 --:--:-- --:--:-- --:--:-- 7937
curl: no URL specified![/src]

Seltsam...
Ich habe grade leider keinen Share-Online Account mehr, also kann ich da nicht wirklich was machen :(
Was mich wundert ist, dass er mehrere Requests macht. Was steht denn in der url.txt ?

und wie ist es wenn man zb die URLs aus eine input file holen um mehrere dateien parallel DL zü können (wget -i)

Das würdest du wohl per Skript lösen.
Da kann ich dir bei helfen, schreib mich aber da am besten mal auf XMPP (siehe Signatur) oder IRC an.

--- [2015-07-25 19:33 CEST] Automatisch zusammengeführter Beitrag ---

Falls du dich an PHP auf der Konsole traust schau dir das mal an:

http://www.heiko-barth.de/hp/projekte/php/share-online_loader
 
Zuletzt bearbeitet:
Oben