09.11.17 Pao čitav OVH provajder

Eto čisto da znate, sav OVH je u downtime.

1 Like

Sto prekrizi Vesnu Zmijanac hehe

2 Likes

A isto I Gocu Trzan :smiley:

2 Likes

Dešava se i najvećim.
OVH je generalno dobar provider.

Sve bih ti oprostio al’ Mirsad Comaga :joy::joy::joy:

2 Likes

i ja sam imao problema sa jednim servisom, vjerovatno su i oni na ovhu … kaze nestalo struje u datacentru, jebem ti sunce brze bi popravili da je datacentar u puračiću

Tiše GTZ :stuck_out_tongue: 20 karaktrera jebo ga led

1 Like

evo slusaj i ti haha, uz mirsu se najbolje odrzava sajt



3 Likes

E tu se sad vidi koliko su dobri. Nije problem da padne, pitanje je kako se brzo vratio?

Moze li netko pojasniti kaj je ovh i zakaj je tako jak?

Isto sto je i Hetzner u Njemackoj, to je OVH u Francuskoj. Internet Service Provider. Imaju ljudi datancetre, prodaju servere, domene, kolokaciju itd.

  1. Zato sto je treci po velicini hosting provider u svijetu
  2. Zato sto imaju iznimno dobru infrastrukturu i podatkovne centre
  3. Zato sto imaju preko milijun aktivnih korisnika.

Ovaj incident (u stvari dva odvojena incidenta u istom danu na dvije razlicite lokacije!!!) je stvarno peh kakav se rijetko kad i kome desi. Svih 7 Roubaix DC je palo zbog interkonekcije (peering) i nedostupnosti upstream providera. Osobno sam bio u jednom njihovom RBX DC ovog proljeća. Tamo se stvarno ima sto za vidjeti i nauciti. Smatram da je ovaj problem nastao zbog toga sto su presli na Huawei Enterprise opremu koja je (jos uvijek) musicava i nedovoljno testirana u praksi. Generalno, imaju odlicne tehnicke ekipe koje znaju svoj posao ali ponekad se ovakve stvari dese i najboljim.

Hm… @ControlEng, vjerovatno si u pravu sto se tice opreme. Huawei ima dosta slabu podrsku i zaista je prava rijetkost cuti da neko koristi Huawei Cloud sisteme(a da nije iz Kine). Jasno mi je sto su presli, Huawei se probija na trziste Evrope kada je rijec o serverskim platformama i storage sistemima i “popusti” koje daju su prosto nevjerovatni. Obicno oni “poklone” opremu (serveri, blade, neki mali storage) kao u fazonu ovo vam je od nas za testiranje. Slavlje obicno splasne ubrzo kada krene montaza da ne kazem testiranje. Ali sta zna tamo neki ekonomista, on vidi samo razliku u cijene na kraju godine. A ti je inzinjeru je*i sa opremom. :slight_smile:

Desi se i najboljima.

1 Like

@bobo_1 tema ide lagano u OT ali dobro je malo prokomentirati i opremu.
Huawei Enterprise je iznimno ozbiljan igrač. U stvari postaje ozbiljan igrač ali još uvijek boluje od dječjih bolesti.
Sjetite se samo korejskih automobila prije 15 godina…svi su im se smijali a pogledajte gdje su sad!

Osobno sam nabavio Huawei aktivne mrežne komponente (govorimo o Enterprise opremi) ove godine na CEBIT-u.
First look - rade odličan posao, za 1/2 Cisco cijene. Second look - SW koji je sve samo ne stabilan i učinkovit. Oprema ostavljena samo za testiranje, Cisco je ostao (i ostat će) No.1
Nakon što Huawei riješi neke osnovne probleme, proričem mu svijetlu budućnost.

Da se razumijemo: ovo je potpuno druga priča u odnosu na Mikrotik i slične skalamerije koji se probijaju samo cijenom. Huawei je ozbiljan igrač i već ima u ponudi ozbiljnu opremu.

Isto vrijedi i za servere: radili smo razne pokuse s IBM (Lenovo), Dell, Supermicro…etc. Na koncu smo ostali vjerni HPE serverima i u potpunosti smo unificirali ponudu. Je skup sport, ali HPE + Cisco rade posao i od toga nikad ne boli glava.

LP

1 Like

Meni stranica preko 24h u downtime vec.

Strasbourg DC u kurc*u da izvinu ova djeca. U zalosti sam :candle: :black_flag:.

Evo javio se brko iz firme, moji serveri su u SBG3.

We made 2 mistakes:

  1. We did not make the SBG site compliant with internal standards which require 2 separate 20KV electrical feeds just like all our DC locations, which are equipped with dual electrical feeds. It is a major investment of about 2 to 3 million euros per electrical feed but we believe this is part of our internal standard.

  2. We built SBG2’s power grid by placing it on SBG1’s power grid instead of making them independent of each other, as in all our data centers. At OVH, each datacenter number indicates that the power grid is independent of other datacenters. Anywhere except on the SBG site.

The technology based on shipping containers was only used to build SBG1 and SBG4. As a matter of fact, we realized that the container datacenter doesn’t fit the requirements of our trade. Based on SBG’s growth rate, the minimum size of a site must be equal to several datacenters, and therefore have a total capacity of 200,000 servers. That’s why in order to deploy a new datacenter today, we are only using 2 types of designs that have been widely tested and planned for large-scale projects and reliability:

  1. the construction of 5 to 6-story towers (RBX4, SBG2-3, BHS1-2), for 40,000 servers.
  2. purchasing buildings (RBX1-3,5-7, P19, GRA1-2, LIM1, ERI1, WAW1, BHS3-7, VIH1, HIL1) for 40,000 or 80,000 servers.

Even if this morning’s incident was caused by third-party automaton, we cannot deny our own liability for the breakdown. We have some catching uptp do on SBG to reach the same level of standards as other OVH sites.

During the course of the afternoon, we decided on the following action plan:

  1. the installation of a second, completely separate 20MVA electrical feed;
  2. separating SBG2 power grid from SBG1/SBG4, as well as the separation of the future SBG3 from SBG2 and SBG1/SBG4;
  3. migration of SBG1/SBG4 customers to SBG3;
  4. closing SBG1/SBG4 and the uninstallation of the shipping containers.

This is a EUR 4-5 million investment plan, which we are launching tomorrow and hope will enable us to restore our customers’ confidence in SBG and OVH.

Our teams are still hard at work to restore services to the last of the impacted customers. Once the incident is completely resolved we will apply the SLA under our contracts.

We are deeply sorry for this incident and we thank the trust that you place in us.

Best,
Octave

24 sata, ajde jos 24 sata pa onda TCOM nije ni toliko los.

1 Like

S obzirom da drzim chat stranice, sve konkurencije koje su pocele slabiti zbog mene vratili im se korisnici…

Nadam se da cu se i ja oporaviti i da ce se chateri vratiti opet na moje sajtove.

https://www.ovh.co.uk/private-cloud/services_included/security-and-sla.xml

5% of the total amount of the next invoice, per 10 minutes of unavailability, limited to 100% of the total invoice amount.

Znaci ja sam 1440 minuta u downtime.

To je to, first look i second look. Slazem se da je Huawei ozbiljan igrac na mnogim poljima(oprema za telekomunikacije, bazne stanice,itd.) i ta oprema radi ko svicarski (da ne kazem kineski) satic ali ovdje su jos tanki bas iz razloga “djeciji bolesti”.

Kolega je hvalio dosta SuperMicro servere. Nisam radio sa njima ali eto da ih pomenem.

i ja radim sa jednim servisom koji je izgleda da ovhu, da koriste ovh saznao sam juce kada su me obavijestili da ne rade jer je nestalo struje u datacentru hahah, evo kriziram


Copyright © 2020 WM Forum - AboutContact - Sponsored by: Mydataknox & Webmaster.Ninja