Das Usenet Forum Foren-Übersicht
Das Usenet Forum
Das Usenet Forum Foren-Übersicht Forenübersicht
FAQ FAQ
Suchen Suchen
Mitgliederliste Mitgliederliste
Profil Profil
private Nachrichten private Nachrichten
Registrieren Registrieren
Login
Benutzername:
Passwort:
Einlogt bleiben 

 

Usenet Guide:

Binary Groups
Text-Newsgroups
Software
Provider
Newsgroups
Retentionerhöhung

 
Neues Thema eröffnen   Neue Antwort erstellen    Das Usenet Forum Foren-Übersicht -> Binary Groups
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
aerialyx
Schreib mal was!


Anmeldedatum: 07.04.2009
Beiträge: 3

BeitragVerfasst am: 02.04.2010, 12:09    Titel: Retentionerhöhung Antworten mit Zitat

Hallo,
Da momentan einige mir bekannte Provider ihre Retention erhöhen, wollte ich wissen, warum Provider nicht mehrere Tage Retention erhöhen können? Beispielsweise könnte ein Provider X, welcher die Retention erhöhen möchte, von einem Anderen Provider, welcher 30Tage höhere Retention hat, den Artikelbestand der 30 Tage "klauen"/"synchronisiseren". Oder haben die Provider einen gemeinsamen Verhaltenskodex?
Faszinierend finde ich außerdem, wie lange jetzt schon im Binarybereich gespeichert werden kann. Als ich mich vor einem Jahr das erste mal mit dem Usenet beschäftigt habe, hätte ich eine solche Erhöhung (wie bei einem amerikanischen Provider auf mittlerweile über 600 Tage) nicht für möglich gehalten.
Schließlich fände ich interessant zu wissen, was die Usenet-Profis von den Erhöhungen halten, weil ich des öfteren gelesen habe, dass die meisten Nutzer mit 30 Tagen auskommen und jetzt auf die Provider höhere Kosten kommen(Kapazität um Faktor 3 erhöht, stelle ich mir nicht gerade günstig vor).
Ach ja, noch ganz besonderen Dank für dieses Forum und den Guide! Hier habe ich schon sehr viele interessante Dinge gelesen. Super!
viele Grüße,
PS: wenn die Fragen unangebracht oder sehr blöde sind, bitte ich um Entschuldigung...
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kavi
Boss hier


Anmeldedatum: 01.08.2006
Beiträge: 1002

BeitragVerfasst am: 03.04.2010, 15:48    Titel: Antworten mit Zitat

Zitat:
PS: wenn die Fragen unangebracht oder sehr blöde sind, bitte ich um Entschuldigung...

Weder noch, sondern Danke für die interessanten Fragen.

Inzwischen befinden sich praktisch sämtliche Usenet Provider weltweit in einem Kampf um eine immer längere Retention. Soweit ich es mitbekommen habe, hatte Giganews damit begonnen. Doch Giganews weigerte sich, die längere Retention auch an seine Reseller Kunden weiterzugeben, noch nicht einmal die Tochtergesellschaften, Usenet Provider, die Giganews irgendwann im Lauf der Zeit geschluckt hatte, profitierten von der längeren Retention.

Einige andere amerikanische Usenet Provider gingen zunächst zögernd darauf ein, Astraweb, ein eher kleiner amerikanische Usenet Provider lies sich jedoch auf diesen Kampf ein. Inzwischen bietet auch Highwinds und seine Tochtergesellschaften eine Retention von knapp 500 Tagen, von mir getestet. Also insbesondere Newshosting und UNS - UseNetServer.com.

Das sind zunächst einmal die Fakten. Nun zum Sinn des Ganzen:

Es gibt keine statistischen Erhebungen darüber, womit der überwiegende Anteil der Usenet Nutzer zufrieden wäre. Deshalb ist die Aussage, dass die meisten Nutzer mit 30 Tagen auskommen würden, einfach eine unbewiesene Behauptung. Tatsächlich blieb auch einem deutschen Usenet Provider nichts anderes übrig als seine Retention durch eine Kooperation mit einem anderen Usenet Provider auszubauen, weil die 30 Tage hinten und vorne nicht mehr reichten und ihm deshalb immer mehr Kunden kündigten. Dennoch hast Du insoweit recht, die meisten Downloads erfolgen innerhalb der ersten 30 Tage nach dem Upload in des Usenet.

Doch mir macht es zum Beispiel Spaß, wenn ich eine Newsgroup gerade erst entdeckt habe, darin auch etwas zu stöbern und da macht natürlich eine lange Retention wirklich Sinn. Eine lange Retention ist auch sinnvoll, wenn man das Usenet zunehmend für Anbieter legaler Inhalte interessant machen möchte, zum Beispiel für eine Filmbibliothek oder einen Fernsehsender. In Deutschland ist es zwar politisch unerwünscht, das Fernsehsender ihre Sendungen länger als sieben Tage im Internet abrufbereit halten, unter anderem wegen der starken Lobby der Privatsender, doch die britische BBC beispielsweise hat damit keine Probleme und verteilt seine Sendungen sogar über P2P Netzwerke, um die eigenen Server zu entlasten.

Warum können Provider nicht gleich schubweise die Retention erhöhen?

Das ist nicht ganz einfach zu erklären, ich versuche es jedoch. Das Usenet ist ein Netzwerk, in dem prinzipiell jede Datei, die noch auf dem Ursprungsserver ist, von dort auch abgerufen werden kann. Diesen Umstand haben sich einige kleinere Usenet Provider zu Nutze gemacht, indem von einer neu hoch geladenen Datei zunächst nur der Header angefordert wurde, der Body jedoch erst, wenn die Datei zum ersten Mal beim Usenet Provider von einem Kunden angefordert wird. Damit spart man natürlich gewaltig Speicherkapazitäten. Der Nachteil dieses Verfahrens besteht darin, dass, wenn die gewünschte Datei auf dem Ursprungsserver wegen noch kürzerer Retention bereits wieder gelöscht worden war, konnte man sie auch nicht mehr dort abrufen. Doch stattdessen beispielsweise bei Giganews die Datei abzurufen, Giganews war schließlich lange führend in der Retention, ging ebenso wenig, denn das abrufen von einem fremden News-Server funktioniert nur vom Ursprungsserver. Alle anderen würden die Auslieferung verweigern. Eigentlich auch verständlich, sonst würden alle anderen Usenet Provider bei einem mit einer langen Retention wie Schmarotzer saugen und könnten sich den Aufbau eigener Serverkapazitäten sparen. Womit deine Frage eigentlich schon beantwortet ist. Die Usenet Provider sind untereinander in einem knallharten Konkurrenzkampf und werden nicht im Traum daran denken, selbst wenn es zunächst einmal Geld bringt, einem anderen Usenet Provider beim Ausbau der Retention zu helfen, indem ihm ältere Dateien, die noch auf dem eigenen Server sind, zur Verfügung gestellt werden. Klauen geht ohnehin nicht, da sichern sich die Administratoren der News-Server schon ab. Wie gesagt, Abruf von einem fremden News-Server nur, wenn es sich dabei um den Ursprungsserver handelt, über den eine Datei in das Usenet geladen wurde. Das lässt sich über die Message ID sehr schnell abgleichen. Denn jeder News-Server hat seine eigene Kennung.

Deswegen funktioniert Retention Ausbau auch nur von Tag zu Tag, indem man einfach nicht mehr löscht.

Es gibt doch noch eine Zwischenlösung, die beispielsweise Highwinds anbietet. Man kann bei Highwinds Retention zukaufen. Wenn beispielsweise die eigenen News-Server nur für eine Retention von etwa 30 Tagen ausreichen würden, kann man alles, was älter ist, von einem der News-Server von Highwinds beziehen, wenn man darüber einen festen Vertrag mit Highwinds hat. Denn natürlich kostet der Ausbau der Retention unglaublich viel Geld, trotz immer billigerer Festplatten. Schließlich macht es wenig Sinn, 1 TB-Festplatten auf einem News-Server voll zu knallen, denn wie wollte man die vielen gleichzeitigen Anfragen mit einer einzigen Festplatte befriedigen? Gerade häufig nachgefragte Dateien müssen mehrfach gespiegelt werden, damit alle Anfragen gleichzeitig bedient werden können.

Und nun zum Faktor drei. Der würde vielleicht dann noch stimmen, wenn der Upload Traffic in das Usenet stetig gleich bleibend wäre. Doch tatsächlich wächst der Upload Traffic kontinuierlich. Im Jahre 2005, als ich die ersten Recherchen für den Usenet Guide machte, betrug der tägliche Upload in das Usenet noch weniger als zwei Terabyte. 2006, als ich die erste Konferenz für Usenet Provider organisierte, waren es schon 2,5 Terabyte. Anfang letzten Jahres wurde 4 Terabyte im Durchschnitt überschritten, inzwischen sind es über fünf. Die Speicherkapazitäten müssen also auch mit dem stetig zunehmenden Upload mithalten können. Fünf mal beispielsweise 600 Tage ergibt eine Gesamt Speicherkapazität ohne Spiegelung häufig abgerufener Dateien von 3000 Terabyte. Das verursacht natürlich ganz erhebliche Investitionskosten, zumal sowohl Server als auch Festplatten außerordentlich schnell und gleichzeitig robust sein müssen. Würde die Retention nicht weiter ausgebaut, müssten die Speicherkapazitäten dennoch mit dem stetig steigenden Upload Schritt halten. Nächstes Jahr werden es vermutlich schon 6-7 Terabyte täglich sein.

Ich vermute, dass der Konkurrenzkampf um die längste Retention irgendwann auch wieder einschlafen wird, spätestens dann, wenn von den ganz alten Dateien so gut wie kein Abruf mehr erfolgt. Würde es so weitergehen wie bisher, dann hätten wir nächstes Jahr bereits über 900 Tage Retention, ein Jahr drauf 1200 Tage, doch wer interessiert sich noch für vier Jahre alte Dateien? Im Augenblick findet das Ganze jedoch auch als Verdrängungswettbewerb statt, denn natürlich können sich kleinere Provider die erforderliche Technik nicht leisten. Sie werden dann von den großen, insbesondere Giganews, nach und nach geschluckt.

Doch womit wollen Usenet Provider ansonsten untereinander konkurrieren? Das Produkt ist eigentlich bei jedem Usenet Provider zumindest sehr ähnlich, nämlich der Zugang zu den eigenen Newsservern beziehungsweise den News-Servern von denen ein Reseller seinen Traffic kauft. Auch bei den Newsgroups gibt es nur marginale Unterschiede, kein News-Server führt sämtliche Newsgroups, die meisten Newsgroups führt United Newsserver, doch viele dieser Newsgroups sind seit vielen Jahren tot.

Die häufig nachgefragten Newsgroups werden von allen Usenet Provider geführt. Unterschiede gibt es höchstens bei weniger gefragten Newsgroups insbesondere im Erotikbereich. Also auch damit kann man sich nicht vom Konkurrenten abheben.

Bliebe als nächstes Thema der Newsreader oder Client. Doch zumindest die großen wie auch kleinen klassischen Usenet Provider möchten ihre User bei der Wahl eines Newsreaders nicht bevormunden und bieten höchstens dennoch als Zusatzleistung einen kostenlosen News Reader an, wie beispielsweise United Newsserver und Simonews den NewsFileGrabber. Da jedoch, selbst mit einem so einfachen Programm wie dem Grabit zumindest dann gewisse Grundkenntnisse des Usenet vorausgesetzt werden müssen, wenn man nicht nur per NZB saugt, hatte Usenext als erste Firma die Marktlücke 2002 erkannt und einen eigenen Client entwickelt, der jede Menge Zusatzleistungen zum eigentlichen Usenet bereithält, die über Webserver abgewickelt werden, wie beispielsweise die Thumbnail Vorschau von Bildern.

Das kostet jedoch nicht nur zusätzliches Geld, sondern verschärft auch die Haftungsrisiken, denn alle Zusatzleistungen, die über eigene Webserver abgewickelt werden, haben nicht mehr das Haftungsprivileg des Usenet Providers, der ebenso wie ein Internetprovider Informationen nur durch leitet, unabhängig davon, dass das Usenet anders funktioniert als beispielsweise das Web und auf jedem News-Server sämtliche Newsgroups, die der News-Server führt, innerhalb seiner Retention gespiegelt werden. Für die eigenen Webserver sind Usenext und andere Firmen, die nach ähnlichem Muster ihren Usenetservice erweitert haben, voll haftbar als Contentprovider.

Das kostet insbesondere viel Geld für Prozesse und laufende Rechtsberatung. Usenext rühmte sich mehrfach, mehr Geld für Rechtsberatung auszugeben, als die meisten kleineren Usenet Provider überhaupt als Umsatz haben. Doch auch das schützt Usenext nicht vor Prozessen, bei denen es gelegentlich einen empfindlichen Dämpfer gibt.

Alphaload beispielsweise hatte letztes Jahr einen Prozess durch mehrere Instanzen verloren, genauer gesagt mit 70 zu 30 verloren und alleine die Prozesskosten, die an alphaload hängen blieben, betrugen rund 70.000 €. Das könnte sich ein kleinerer Usenet Provider gewiss nicht leisten. Das ist übrigens mit ein Grund, dass ich selbst nie ernsthaft mit dem Gedanken gespielt habe, als Usenetprovider auftreten zu wollen, obwohl ich insbesondere auch durch meine Webseiten sicher einen großen Vertrauensvorschuss von vielen Usern hätte.

Mit was sonst können Usenet Provider sich noch voneinander unterscheiden? Bestenfalls noch mit einem Topservice, doch Service braucht in der Regel nur der Anfänger, doch gerade für den Anfänger, der viele Fragen hat, die zwar prinzipiell mit dem Usenet, nicht jedoch unmittelbar mit der Leistung des Usenetproviders zu tun haben, bräuchte man auch entsprechend qualifiziertes Personal, das geht ziemlich schnell ins Geld. Oder man macht es wie ich es von Usenext gehört habe, dort wird der Service von Regensburger Studenten abgewickelt, die mehr oder minder verstehen, was ein User mit seiner Supportanfrage überhaupt möchte und mit Textbausteinen antworten. Nicht viel anders als bei eBay.

Die einzigen, die mit einem neuen Produkt zum Usenet vor einigen Jahren auf den Markt kamen, wobei ich Geburtshilfe in Form von Beratungen gegeben habe, waren prepaid-usenet. Inzwischen werden sie vielfach nachgeahmt. Doch so ganz neu und einmalig war die Idee von Prepaid Usenet auch nicht, Blockaccounts gegen Einmalzahlung gab es vorher schon bei United Newsserver und Simonews.

Bleibt natürlich noch der Preis, mit dem man sich prinzipiell unterscheiden könnte, doch auch da ist nicht allzu viel Luft drin. Die Marge pro Kunden ist ohnehin schon sehr gering, zumal auch Werbung einiges kostet, der Preiskampf, der vor etwa drei Jahren tobte, ist inzwischen auch praktisch gelaufen.

Am erstaunlichsten finde ich bei der Thematik des Retentionausbaus, dass sich ein relativ kleiner amerikanischer Usenet Provider, Astraweb, auf den Kampf mit dem Giganten Giganews eingelassen hat und gut mithalten kann.

Zitat:
Ach ja, noch ganz besonderen Dank für dieses Forum und den Guide! Hier habe ich schon sehr viele interessante Dinge gelesen. Super!

Solches Feedback bekommt man natürlich gerne. Herzlichen Dank dafür.[/quote]
_________________
Usenet Infos topaktuell!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
aerialyx
Schreib mal was!


Anmeldedatum: 07.04.2009
Beiträge: 3

BeitragVerfasst am: 07.04.2010, 20:14    Titel: Antworten mit Zitat

Hallo
vielen Dank für deine schnelle und ausführliche Antwort!
Wie ich sehe, hatte ich ein falsches Verständnis vom technischen Aufbau Des Usenet gehabt. Demnach haben Provider also entweder eigene Verträge geschlossen oder eigene Verbindungen zwischen ihren Rechenzentren. Ich dachte irrtümlich, dass die Provider untereinander wie Privatkunden angeschlossen sind. Provider A. hat bei Provider B. einen Flatrateaccount und synchronisiert ständig die neuen Artikel. So könnte, um bei dem Beispiel der beiden amerikanischen Provider zu bleiben,) Astraweb bei Giganews den Diamond-Tarif haben und sich die Daten doch noch „klauen“, indem er die alten Artikel lädt. (Wobei hier wohl klar wäre, woher die Artikel kämen…) In diesem Sinne wäre nämlich auch ich ein (kleiner) „Usenet Provider“ - ich synchronisiere die Artikel von dem Usenet-Server auf meinem Computer und biete diese z.B. in meinem LAN an. Wenn ich einen Artikel zu meinem Usenet Provider hochlade, wird dieser ja an alle anderen Usenet Server verteilt, die mit meinem Usenet Provider in Verbindung stehen.
Ach ja, Retentionwettlauf ist immer noch im Gange, leider aber nicht bei meinem aktuellen Holland-Provider, bei dem mein Account bald abläuft. Dieser hat auch noch Probleme wie versprochene Retention zu halten, was der Support mit dem gestiegenen Upload begründet. Ab einem bestimmten Alter, ist die Geschwindigkeit ziemlich mies. Laut Supportforum werden die Artikel von einem „Back-up-Server“ abgerufen… Zumindest habe ich in deinem Beitrag noch eine weitere Hilfe bekommen, denn jetzt weiß ich, dass mein(vielleicht zukünftiger) Provider, welcher nach eigenen Angaben zu Highwinds gehört, als seriös einzustufen ist. :-D
viele Grüße und nochmal Dank für die Mühe, welche in deiner Antwort steckt.


Zuletzt bearbeitet von aerialyx am 08.04.2010, 19:45, insgesamt einmal bearbeitet
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Kavi
Boss hier


Anmeldedatum: 01.08.2006
Beiträge: 1002

BeitragVerfasst am: 07.04.2010, 22:09    Titel: Antworten mit Zitat

Ich habe schon verschiedentlich versucht, zu erklären, wie das Usenet funktioniert, soweit ich das als technischer Laie überhaupt kann. Die technischen Details des NNTP Protokolls wie auch der Administration eines Newsservers sind mir persönlich auf jeden Fall zu hoch.

Das Usenet besteht aus einer Vielzahl von Newsservern, da das Usenet dezentral aufgebaut ist, weiß niemand, wie viele es tatsächlich sind. Schätzungen reichen von 5000-20.000 weltweit. Diese News-Server sind in einem riesigen Netzwerk untereinander verbunden. Doch das Netzwerk führt nicht zu einer automatischen Synchronisation.

Es funktioniert viel mehr folgendermaßen:

Irgendjemand lädt auf irgendeinen News-Server etwas hoch. Sobald der News-Server den hoch geladenen Dateiteil akzeptiert hat, gibt er dem Dateiteil eine einmalige Message ID unter anderem mit der Kennung des eigenen Newsservers, ergänzt die Header Daten der Message um diverse Verwaltungsangaben und speichert sie auf dem eigenen News-Server. Gleichzeitig mit der Speicherung wird der Header an sämtliche Peeringpartner weitergereicht, die wiederum an ihre Peering Partner weiterreichen und so weiter und so fort, bis schließlich der Header der Message auf sämtlichen am Usenet teilnehmen News-Servern, die die betreffende Newsgroup führen, auf dem Header Server gespeichert ist.

Im weiteren Vorgehen unterscheiden sich die Geister, News-Server mit einer sehr langen Retention fordern unmittelbar darauf den Body dazu an und speichern ihn ebenfalls auf ihrem eigenen News-Server, andere News-Server mit kürzerer Retention fordern den Body oft erst an, wenn er erstmalig von einem User angefordert wird. Der Body kann so lange vom Ursprungsserver angefordert werden, wie er dort gespeichert ist. Wurde er dort gelöscht, kann nur noch ein Usenet Provider, der den Body bereits vorher gespeichert hatte, den Body an einen User ausliefern.

Synchronisiert werden zunächst einmal nur die Header und auch das nur unmittelbar nach dem Upload, nicht zu irgendeinem späteren Zeitpunkt und nur innerhalb der Newsgroups, die auf dem anderen News-Server geführt werden. Wird beispielsweise eine neue Datei in die Newsgroup alt.binaries.usenetguide (diese Newsgroup gibt es nicht) hochgeladen, die jedoch nur auf dem Ursprungsserver geführt wird, dann wird sie von überhaupt keinem anderen News-Server angefordert. Wird die Newsgroup nur auf einigen Newsservern geführt, auf den meisten anderen jedoch nicht, dann wird sie nur von den News-Servern angefordert, die auch diese Newsgroup führen. Ein News-Server, der neu ans Netz geht, fängt mit einer Retention von Null an und erweitert sie von Minute zu Minute bis zum Maximum, das bei ihm als Retention eingestellt ist. Es sei denn, man hätte mit irgendeinem Geschäftspartner einen Vertrag über den Abgleich geschlossen, dann bedient sich der neue News-Server von einem bereits existierenden sowohl mit dem Header Daten als auch mit dem Body. Doch das hat natürliche Grenzen alleine schon durch den Traffic, würde beispielsweise ein neu ans Netz gehender Server auch nur die Retention von 30 Tagen nachholen wollen und sich also bei einem Geschäftspartner, der ihm dazu Zugang zum eigenen News-Server erteilt, bedienen, dann müsste er schon gleich zu Beginn 30 x 5 Terabyte Daten anfordern, also 150 Terabyte. Selbst mit einer superschnellen Standleitung würde es Tage dauern, bis der neue News-Server auch nur die letzten 30 Tage angefordert hätte. Du kannst mal probieren, eine ein Terabyte Festplatte komplett auf eine andere Festplatte zu kopieren, der Daten Transfer zwischen Festplatten innerhalb eines Computers ist immer noch mit Abstand der schnellste Weg, dennoch wird es viele Stunden dauern, bis eine komplette Festplatte mit einem Terabyte Daten auf eine andere Festplatte kopiert wurde. Auch daran lässt sich die enorme Leistungsfähigkeit des Usenet ablesen, alleine fünf Terabyte täglicher Feed nur zwischen News Servern, dazu kommen natürlich noch die Anforderungen durch die User der News-Server.

Es handelt sich also von Anfang an nicht um ein synchronisieren, sondern stattdessen einfach um die Information von einem Server an seine Peering Partner, bei mir wurde gerade etwas hoch geladen und ihr könnt es von dort anfordern. Möglicherweise sogar noch zusätzlich mit einer Verwaltungs Nachricht, wie lange die Datei auf dem Ursprungsserver zur Anforderung bereit liegt. Wird innerhalb dieser Frist nicht angefordert, gibt es diese Datei für den anderen News-Server auch nicht mehr, höchstens noch über einen Geschäftspartner, der sie vorher bereits angefordert hatte und im Rahmen eines privatrechtlichen Vertrages mit einem anderen News-Server teilt.

Das Peering erfolgt automatisch und kostet meines Wissens außer dem Traffic nichts. Der Traffic ist allerdings gewaltig, alleine durch das Peering wird ein täglicher Feed von inzwischen mehr als fünf Terabyte erreicht. Doch eine mit einem anderen News-Server geteilte Speicherkapazität kostet natürlich etwas.

Zitat:
In diesem Sinne wäre nämlich auch ich ein (kleiner) „Usenet Provider“ - ich synchronisiere die Artikel von dem Usenet-Server auf meinem Computer und biete diese z.B. in meinem LAN an.


Das ist wohl ein echtes synchronisieren, wenn auch nur bezogen auf einige wenige Newsgroups, du wirst wohl kaum sämtliche Newsgroups wie ein Usenet Provider auf deinem PC führen können, und selbst das wird wohl kaum automatisiert erfolgen, sondern das einzige was automatisiert erfolgen kann, ist der tägliche Download neuer Header aus den von dir abonnierten Newsgroups. Die dazugehörenden Bodys musst Du auf jeden Fall manuell anfordern, wobei ich doch annehme, dass Du dir nicht auch noch den kompletten Spam in einer Newsgroup auf den eigenen Rechners ziehst. Würdest Du tatsächlich das gesamte Usenet, soweit von deinem Usenet Provider überhaupt geführt, mit deinem eigenen PC "synchronisieren", dann müsstest Du täglich die Festplattenkapazität um fünf Terabyte erweitern oder alles, was älter als ein Tag ist, gleich wieder löschen. Außerdem bräuchtest du in diesem Fall ein Peering Abkommen mit einem anderen Usenet Provider, über eine Flatrate für normale Kunden bekommst Du mit Sicherheit keine fünf Terabyte pro Tag. Da mag deine eigene Internetanbindung so schnell sein wie sie will. Auch eine Flatrate ist letztendlich Tempolimitiert, für schnelle Standleitungen ist sie nicht vorgesehen.

Zitat:
Astraweb bei Giganews den Diamond-Tarif

glaubst du im Ernst, dass man damit fünf Terabyte pro Tag herunterladen kann? So schnell sind Usenet Provider auch wieder nicht, auch nicht der Diamond-Tarif von Giganews. Im Übrigen siehe weiter oben.

Zitat:
Ab einem bestimmten Alter, ist die Geschwindigkeit ziemlich mies. Laut Supportforum werden die Artikel von einem „Back-up-Server“ abgerufen…

auch daran bin ich in meiner ersten Antwort bereits eingegangen.

Beim so genannten „Back-up-Server“ handelt es sich entweder um ein Abkommen beispielsweise mit Highwinds oder einem anderen Usenet Provider mit genügend langer Retention, das sämtliche Anfragen von Usern für Dateien, die älter als die eigenen Retention sind, auf den News-Server des Geschäftspartners umgeleitet werden und von dort aus befriedigt, das bedingt jedoch erhebliche technische Probleme, die nicht unbedingt zufrieden stellend gelöst werden und damit entweder zu verminderter Geschwindigkeit oder vielen unvollständigen Dateien oder sogar zu beidem führt oder aber, der so genannte „Back-up-Server“ besteht aus nichts anderem als der Hoffnung, dass man ältere Dateien als diejenigen, die man selbst auf den News-Server hat, noch vom Ursprungsserver anfordern kann, doch dann ist ein kleiner Einbruch in der Geschwindigkeit ebenso natürlich, denn deine Anfrage geht zunächst einmal an den eigenen Bodyserver deines Usenet Providers, der guckt nach und stellt fest "article not on server" und sendet anschließend eine Anfrage an den Ursprungsserver mit Anforderung der Datei. Und das für jeden kleinen Dateiteil, also etwa pro 400 kB, größer sind die einzelnen Dateiteile im Usenet normalerweise nicht. Alleine diese Verwaltungsanfragen, bevor die Datei entweder vom Ursprungsserver oder vom Geschäftspartner angefordert wird, verzögert um einige Millisekunden. Bei großer Serverlast sogar ganz spürbar.

Im Extremfall läuft es dann auch noch komplett schief, wie ich es bis vor etwa einem halben Jahr bei einem Usenet Provider erlebte, der ebenfalls wegen nicht ausreichender Speicherkapazität auf dem eigenen News-Server ein Abkommen mit einem anderen Usenet Provider hat. Die Dateien wurden von dort angefordert und auf dem eigenen News-Server zwischengespeichert, bevor sie an den User ausgeliefert wurden. Doch der eigene News-Server war auf eine Retention von 30 Tagen eingestellt und löschte demzufolge die gerade hereinkommenden Dateien gleich wieder, denn sie hatten schließlich bereits die eigene Retention weit überschritten. Das Ergebnis war, selbst mit sämtlichen Reparaturdateien (PAR2 Dateien) scheiterte die Reparatur, weil natürlich auch die Reparaturdateien nur noch unvollständig beim User ankamen. Inzwischen wurden die Einstellungen des Newsservers komplett geändert, dieses Problem gibt es bei diesem Usenet Provider nicht mehr und der User merkt nicht, was vom eigenen News-Server kommt und was vom News-Server des Geschäftspartners mit der längeren Retention kommt.
_________________
Usenet Infos topaktuell!
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
aerialyx
Schreib mal was!


Anmeldedatum: 07.04.2009
Beiträge: 3

BeitragVerfasst am: 08.04.2010, 20:18    Titel: Antworten mit Zitat

Oh je, ich merke, ich habe mich ziemlich undeutlich ausgedrückt, sodass du mich falsch verstanden hast. Oben habe ich meine frühere, aber falsche Vorstellung vom Usenet beschrieben. Keinesfalls wollte ich auch selber als Usenetserver agieren, sondern nur sagen, dass ich als Teilnehmer gleichzeitig als „Bestandteil“ des Usenet gesehen werden könnte, indem ich manche Artikel herunterlade und auch berechtigt bin, Artikel zu verfassen (wobei dies über meinen Provider geschieht).
Zitat:
Zitat:

Astraweb bei Giganews den Diamond-Tarif

glaubst du im Ernst, dass man damit fünf Terabyte pro Tag herunterladen kann?

Hierbei hatte ich im Kopf, dass die Retention Erweiterung mittlerweile über 200 Tage andauert und in dieser Zeit eigentlich ziemlich einfach die fehlenden 10-20 Tage über zum Beispiel drei mal Diamond+100MBit-Leitung hätten überspielt werden können.
Zitat:
Zitat:

Ab einem bestimmten Alter, ist die Geschwindigkeit ziemlich mies. Laut Supportforum werden die Artikel von einem „Back-up-Server“ abgerufen…

auch daran bin ich in meiner ersten Antwort bereits eingegangen.

hier habe ich versäumt zu zeigen, dass sich nur ein Vergleich herstellen wollte - Du hast sicher bereits beschrieben, deswegen sorry…
Zitat:
Die Dateien wurden von dort angefordert und auf dem eigenen News-Server zwischengespeichert, bevor sie an den User ausgeliefert wurden. Doch der eigene News-Server war auf eine Retention von 30 Tagen eingestellt und löschte demzufolge die gerade hereinkommenden Dateien gleich wieder, denn sie hatten schließlich bereits die eigene Retention weit überschritten.
- Interessant zu wissen Shocked
viele Grüße, ein kleiner dummer Schüler Sad
Nach oben
Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen    Das Usenet Forum Foren-Übersicht -> Binary Groups Alle Zeiten sind GMT
Seite 1 von 1

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.

  Impressum Usenet-Suchmaschinen