Moc obliczeniowa jest elastyczna, ale wylacznie wtedy, kiedy obciazenie wydaje sie równolegle. Jedna z nierzadko cytowanych wartosci chmury obliczeniowej jest jej elastycznosc wzgledem zmieniajacych sie wzgledów. Na przyklad podczas sezonowych badz nieoczekiwanych skoków popytu w produkt wyprzedawany przez firme handlu elektronicznego lub w fazie wzrostu wykladniczego sieci spolecznosciowej dodatkowe zapasy obliczeniowe sa przydzielane na biezaco, aby poradzic zwiekszonemu popytowi w ciagu jedynie kilku minutek (zamiast wielu dni koniecznych do nabycia kosmicznego intralinks vdr i kapitalowego urzadzenia potrzebnego sluzace do rozbudowy zapasów obliczeniowych we wlasnym zakresie). Podobnie, w tym srodowisku placi sie jedynie za to, czego potrzeba, wiec mozna otrzymac zwiekszone zasoby, aby obsluzyc skoki obciazania, a nastepnie zwolnic, wówczas gdy skok ustapi. Jednak zdobycie dodatkowych zapasów obliczeniowych nie wydaje sie byc tak zwykle, jak magiczne uaktualnienie az do wiekszej, potezniejszej maszyny po locie (z proporcjonalnym wzrostem liczby procesorów, pamieci i lokalnej pamieci masowej); poniekad dodatkowe zasoby sa najczesciej uzyskiwane za posrednictwem przydzielenie suplementarnych instancji serwera do zlecenia. Na przyklad Elastic Compute Cloud firmy Amazon dzieli zasoby obliczeniowe na male, wielkie i niezwykle duze instancje wirtualnych serwerów prywatnych, z których najwiekszy zawiera nie wiecej niz cztery rdzenie. Jesli program nie jest w stanie skorzystac wraz z dodatkowych instancji serwera, odciazajac czesc wysokiej pracy przy nowych instancjach, które dzialaja równolegle ze starymi instancjami, to posiadanie dodatkowych instancji serwera nie zaakceptowac bedzie zbytnio pomocne. Powszechnie rzecz zabierajac, aplikacje zbudowane do roboty nad stylizacja typu „shared-nothing” (gdzie zbiór niezaleznych urzadzen wykonuje zagadnienie z zminimalizowanym nakladaniem sie zasobów) istnieja dobrze przystosowane do takiego srodowiska. Pewne produkty sluzace do przetwarzania w chmurze, np. Google App Engine, umozliwiaja nie tylko infrastrukture przetwarzania przy chmurze, lecz takze kompletny pakiet oprogramowania z ograniczonym interfejsem API, dzieki czemu informatycy sa zmuszeni do notowania programów, które moga pracowac w otoczeniu wspóldzielonym i tym samym ulatwiac podatne skalowanie.

data room co to jest

Wiadomosci sa magazynowane w niezaufanym hoscie. Chociaz moze sie wydawac, iz firma hostingowa dzialajaca przy chmurze nie istnieje sensu przekraczac prywatnosci wlasnych klientów oraz uzyskiwac dostepu do danych empirycznych bez zezwolenia, taka mozliwosc sprawia, ze niektórzy ewentualni klienci denerwuja sie. Powszechnie rzecz biorac, przenoszenie danych empirycznych poza obszar zakladu zwieksza liczbe potencjalnych zagrozen ochrony i trzeba podjac wlasciwe srodki ostroznosci. Ponadto, aczkolwiek nazwa „przetwarzanie w chmurze” sprawia wrazenie, ze zasoby obliczeniowe i pamieciowe sa dostarczane sposród niebianskiej lokalizacji, faktem jest, ze wiadomosci sa silowo zlokalizowane przy okreslonym panstwa i podlegaja lokalnym przepisom i regulace prawne. Dla przykladu w Ameryce US Patriot Act pozwala rzadowi wymagac dostepu sluzace do danych gromadzonych na przypadkowym komputerze; jezeli dane sa hostowane poprzez strone trzecia, dane powinno sie przekazac wyjawszy wiedzy lub zgody spólki lub osoby korzystajacej wraz z uslugi hostingowej. Poniewaz wielu dostawców przetwarzania w chmurze daje konsumentowi niewielka rewizje nad naszym, gdzie dane sa przechowywane (np. Amazon S3 umozliwia klientowi na wybór miedzy opcjami zbierania danych w USA oraz UE), odbiorca ma niewielki wybór, w jaki sposób tylko zalozyc najgorszy i to wyjawszy danych wydaje sie byc szyfrowany za pomoca klucza nie zaakceptowac znajdujacego sie na hoscie, dane moga byc dostepne dla ludzi trzecich wyjawszy wiedzy kontrahenta. Dane istnieja replikowane, nierzadko w wielkich odleglosciach geograficznych Dostepnosc danych empirycznych i wytrzymalosc sa najistotniejsze dla wytwórców pamieci masowej w chmurze, poniewaz strata lub niedostepnosc danych moze byc szkodliwa zarówno dla dolnej linii (nie trafiajac w cele okreslone w umowach o szczeblu uslug), oraz reputacji biznesowej ( spacji czesto czynia, ze wiadomosci). Dostepnosc danych i wytrzymalosc sa najczesciej uzyskiwane dzieki replikacji pod spodem oslonami (tzn. Dane beda automatycznie replikowane bez ingerencji lub zadan klienta). Wielkich dostawców ofert przetwarzania przy chmurze wraz z centrami danych empirycznych rozsianymi na calym swiecie potrafia zapewnic styl odpornosci dzieki uszkodzenia, replikujac dane dzieki duze odstepie geograficzne.