PasjaGSM.pl
  Jesteś w: PasjaGSM.pl > News > Marketing Dostarczania Usług (Service Provider Marketing) w Juniper Networks

QR Code: http://m.pasjagsm.pl/news/marketing-dostarczania-uslug-service-provider-marketing-w-juniper-networks-3130.html
QR Code
Marketing Dostarczania Usług (Service Provider Marketing) w Juniper Networks

Michał Gruszka, 22 stycznia 2008, 10:56
Tagi: Juniper Networks

Jesteśmy obecnie świadkami renesansu w dziedzinie rozwoju zawartości sieci oraz rozwoju aplikacji. Udoskonalona innowacja – w wielu kręgach zwana Web 2.0 – oferuje bogatsze aplikacje, które obejmują video, funkcje głosowe, wysyłanie wiadomości, oprogramowanie jako usługę (SaaS), aplikacje biznesowe i gry, w niezliczonej liczbie kombinacji.

Jednakże, na horyzoncie pojawia się nowe wyzwanie – takie, które mogłoby zdusić tę innowację - i całą branżę. Wszystko sprowadza się do user experience (doświadczenia użytkownika).

Zasadniczo, wartość usługi jest proporcjonalna do jakości user experience. Gotowość do zapłacenia $1.99 za wczytanie pliku video oparta jest na kombinacji wielu czynników. Niektóre związane są z zawartością sieci, na przykład wybór i cena. Znaczenie ma również to jak łatwo jest dany film video znaleźć, wybrać i zapłacić za niego, co zależy od aplikacji video. Inne czynniki, takie jak szybkość odpowiedzi interfejsu oraz czas wczytywania danych, zależą od urządzenia i samej sieci.

Idealnie, możliwość kontrolowania każdej z części składowych usługi dostarczania video – zawartości sieci, aplikacji, sieci i urządzenia – pozwoliłaby na tworzenie ofert o wyższej wartości i generujących zwiększone przychody (bezpośrednio od końcowych użytkowników lub poprzez reklamę). Jednakże, dla dostawców aplikacji oraz dostawców zawartości sieci, interakcja z klientami w Internecie oparta jest na trudnej do przewidzenia plątaninie zależności związanej z wydajnością sieci - działającej na zasadzie best-effort (dostarczania najwyższej jakości jaka jest w danej chwili możliwa). Czasami Internet jest wystarczająco szybki, a czasami nie. A zatem, dostawcy Internetu, od których najbardziej zależy usprawnienie lub zagwarantowanie dostarczenia aplikacji, zauważają, że im więcej inwestują w infrastrukturę, aby wyeliminować powstawanie wąskich gardeł związanych z szerokością pasma, tym szybciej stają się oni dostawcami pasm standardowych (commodity bandwidth providers).

Zwiększanie przepustowości to nie jest (jedyna) odpowiedź
Może być czymś nieoczekiwanym usłyszeć, iż zwiększenie przepustowości nie jest całą odpowiedzią na udoskonalenie user experience. O ile rozwijające się nowe technologie, takie jak szybsze łącza szerokopasmowe, interfejsy 40 i 100 – Gb oraz dodatkowe kanały optyczne, mogą usprawnić wydajność sieci, a ta dodatkowa przepustowość może pomóc zminimalizować punkty natłoku, jednakże zabiegi te nie mogą dać gwarancji. Chociaż wiele aplikacji będzie działało lepiej, to wszystkie nadal będziemy musieli traktować na równi, w nieprzewidywalnym Internecie typu best-effort, a dostawcy Internetu nie otrzymają większych przychodów za inwestycje związane z dostarczaniem tych aplikacji.

Innym rozwiązaniem jest umożliwienie aplikacjom żądania od sieci wydajności na sprecyzowanym poziomie: best-effort, usprawnionym lub poziomie zapewnionej dostawy. W tym nowym podejściu, sieć wchodzi w interakcję z aplikacją i zobowiązuje się do zachowania poziomu wydajności opartego na potrzebach aplikacji, urządzenia i tożsamości użytkownika. Alternatywnie, jeśli warunki są złe – na przykład, przepustowość jest niewystarczająca – sieć może poinformować aplikację.

Kiedy dostawcy zawartości sieci oraz dostawcy aplikacji mogą polegać na poziomie wydajności sieci, mogą w zamian zagwarantować user experience. A to oznacza gwarantowane dochody, a także uniknięcie dodatkowych kosztów wynikających z faktu, iż niezadowoleni użytkownicy dzwonią z zażaleniem, że wczytywanie najnowszej gry trwało zbyt długo. Jest to motywacją dla dostawców zawartości sieci oraz dostawców aplikacji, aby współpracowali z dostawcami Internetu w celu maksymalizacji całościowego user experience, a co za tym idzie, zwiększali do maximum wpływy finansowe dla nich wszystkich.

Opowieść o dwóch założeniach
Twórcy aplikacji pracujący w światowej sieci Web 2.0 stoją przed dylematem co do tego, jak postrzegać sieć. Typowo, programiści działają w jednym z dwóch obozów.

Pierwszy obóz zakłada, że sieć posiada nieskończoną wydajność i jest to założenie przyjmowane przez większość twórców aplikacji dla przedsiębiorstw. Doznają oni dużego rozczarowania podczas prób dostarczenia aplikacji do sieci działających w realnym świecie, zwłaszcza do Internetu.

Drugi obóz zakłada, że wydajność sieci jest nieprzewidywalna i dlatego nie można jej ufać. Ci programiści pracują aktywnie nad tym, aby obejść słabe strony sieci, co jeszcze bardziej obniża wartość dostawcy usług internetowych. Skłaniają się ku rozwiązaniom, które polegają na wczytywaniu i przechowywaniu zawartości na lokalnym twardym dysku lub w pamięci flash urządzenia. Innowacje po stronie klienta, takie jak Flash oraz AJAX zapewniają bogatszy interfejs i są dodatkowym narzędziem dla optymalizacji doświadczenia, a także nie są tak bardzo uzależnione od wydajności sieci.

Jednakże, obydwa te podejścia ograniczają zdolność do maksymalizowania user experience. Zakładanie nieograniczonej wydajności oznacza, że aplikacje nie działają zgodnie z oczekiwaniami w rzeczywistym świecie. Natomiast projektowanie aplikacji dla nieprzewidywalnych sieci o niskiej wydajności jest bardziej kosztownym dla dostawcy sposobem dostarczania aplikacji, a ponadto sposób ten może ograniczyć zakres innowacji i funkcji związanych z usługą.

Dlaczego optymalizacje sieci specyficzne dla aplikacji kończą się niepowodzeniem

Z perspektywy projektowania sieci, niektórzy producenci oraz dostawcy usług usiłowali wprowadzić do sieci więcej kontroli. Jednakże, do dnia dzisiejszego, było to ograniczone do poszczególnych aplikacji on-net – takich jak VoIP lub IPTV, udostępnianych w hostingu w domenie dostawcy usług internetowych. O ile to ukierunkowane podejście może przynosić korzyści dla specyficznej usługi, to inne aplikacje - jak również cały ruch off-net – oddelegowane są do dostawy typu best-effort. Te niedoskonałości stają się ewidentne wtedy, gdy wprowadzana jest nowa usługa, na przykład, modna nowa gra off-net współpracująca z video. Czy ta potencjalna żyła złota ma być wydelegowana do sieci best effort, z prawdopodobnymi konsekwencjami, że user-experience jest słabe i nie można uruchomić gry? Albo - czy wymagana jest nowa inwestycja w celu wprowadzenia aplikacji do sieci i optymalizacji sieci dla tej nowej usługi, co zwiększy tym samym czas i koszt wprowadzenia?

Tym, co komplikuje optymalizację dostawy zorientowaną na usługę jest gwałtownie rozszerzający się zakres różnych aplikacji. Jako odbiorcy, nie powinniśmy interesować się tym czy mamy do czynienia z usługą on-net czy off-net, podobnie jak wymaganym poziomem przepustowości, komplikacjami mobilności czy szczegółami technicznymi obsługiwanych urządzeń. Zależy nam po prostu na maksymalizacji naszego doświadczenia. Aktualne praktyki związane z projektowaniem sieci po prostu nie stają na wysokości zadania, jeśli chodzi o dostarczenie odpowiedniego user experience dla każdej z tych zróżnicowanych – oraz wymagających - aplikacji.

Innowacje sieciowe i rozkwit ‘sprytnej i otwartej sieci’
Jeżeli ani dostawcy aplikacji, ani dostawcy zawartości sieci, ani też dostawcy usług internetowych indywidualnie nie mają takiej mocy, aby maksymalizować dla końcowego użytkownika wartość nowych, interaktywnych zasobów multimedialnych oraz aplikacji opartych na Web 2.0, to co, wobec tego, jest rozwiązaniem?

W ostatnich latach wyłoniło się nowe podejście. Praca w sieci IP, wyewoluowała tak, że umożliwia osiąganie zróżnicowanych poziomów doświadczenia odpowiednich dla każdej aplikacji. Teraz, idąc dalej, sieci IP zostały wzbogacone o warstwę oprogramowania analizującego, co pozwala, aby poziom doświadczenia dla poszczególnej sesji użytkownika określany był dynamicznie poprzez transakcję pomiędzy aplikacją i siecią – a być może nawet użytkownikiem. Wyobraźmy sobie co by było, gdyby sieć mogła dostarczać ‘micro-SLA’ dla poszczególnych przepływów aplikacji. Pozwoliłoby to na dostarczenie Twojego filmu za $1.99 w najbardziej odpowiedni sposób, w zależności od Twojej subskrypcji, lokalizacji urządzenia, sieci i innych czynników.

Kluczem do zrealizowania tej wizji jest współpraca transakcyjna pomiędzy siecią i aplikacją. Aby upewnić się, że to nie pociąga za sobą ogromnych kosztów, które przekraczają korzyści, kluczem do wszystkiego będzie wdrożenie sprawdzonych,

otwartych interfejsów. W coraz większym stopniu, aplikacje tworzone są przy zastosowaniu struktur architektonicznych SOA, wykorzystaniu usług webowych (Web Services) oraz protokołów SOAP/XML, w celu żądania i dostarczania usług, czy to w przypadku tradycyjnych usług aplication-to-application, czy to w przypadku – jak tutaj -application-to-network. Ponadto, dla aplikacji nie będących aplikacjami webowymi (non-Web Sernice), otwarte interfejsy, takie jak Diameter, mogą pozwolić systemowi IMS oraz przełącznikom programowym (soft switches) na interakcję z siecią.

W obu przypadkach, aplikacja może wymieniać komunikaty z interfejsami Open Network w celu sygnalizowania odblokowania/ blokowania dostępu, wymaganej szerokości pasma, czasu trwania, przynależności do VPN (wirtualnej sieci prywatnej) oraz zaawansowanych zabezpieczeń, jeżeli są wymagane, na przykład, w tym celu, aby zapobiec potencjalnie zagrażającym plikom z załączników w przepływie IM.

Uwolnienie nowej fali innowacji wymaga współpracy
Dawne modele szczególnego traktowania wybranych aplikacji przy pozostawieniu pozostałych jako best-effort, często rodziły konflikty pomiędzy dostawcami zawartości sieci oraz dostawcami usług internetowych - przy czym obniżały user experience i związane z nim przychody. Pozwolenie każdej aplikacji na współpracę z siecią w celu dostarczenia odpowiedniego doświadczenia zmienia te relacje we współpracę, która maksymalizuje przychody dla wszystkich, poprzez maksymalizację user experience. Dostawcy usług mogą tworzyć aplikacje lub przechowywać je w ramach hostingu w swojej własnej sieci, jednakże ma to naturalne ograniczenia - największy rozmiar aplikacji oraz największa innowacyjność zawartości zawsze będą wykraczały poza możliwości jakiegokolwiek dostawcy usług internetowych. Zawsze będzie większa gama aplikacji oraz przyrost zawartości sieci off-net pochodzące od takich dostawców usług jak Google, Yahoo! oraz Microsoft, jak również od wyspecjalizowanych dostawców i firm debiutujących. Pozwolenie partnerom aplikacji off-net na powiadamianie dostawcy usług internetowych o tym, że należy stworzyć zróżnicowaną dostawę dla danego przepływu, sprawi, iż odbiorcy otrzymają większy wybór i takie user experience, jakiego wymagają - i gotowi są za to zapłacić

Aby mieć pewność, należy dopracować szczegóły handlowe – a zwłaszcza, odbiór przychodów i ich podział pomiędzy dostawców aplikacji/ dostawców zawartości sieci oraz dostawców usług internetowych. Może to zrealizować dostawca usług internetowych lub dostawca aplikacji. Na przykład, płacę firmie AT&T za szerokie pasmo z pakietem poczty, a AT&T dzieli część mojej wpłaty z Yahoo! za świadczenie hostingu dla wiadomości e-mail. Przykłady współpracy pomiędzy dostawcami zawartości sieci oraz dostawcami usług internetowych obejmują:
zawartość VerizonWireless i wybraną zawartość YouTube
NTT DoCoMo oraz ekosystem dostawców zawartości „i-Mode”

PCCW oraz Hang Seng Bank, współpracujących jako partnerzy w handlu akcjami TV

Inwestowanie dla innowacji
Wielu dostawców usług przyznaje się do niepewności co do tego jakie należy obecnie poczynić inwestycje, szczególnie kiedy ich możliwości przełożenia tych inwestycji na pieniądze pozostają także niepewne. Aktualne propozycje dla architektury sieciowej zachęcają dostawców do inwestowania w szybsze sieci. Podejście to pozwala, aby sieć best-effort była wystarczająco dobra dla dostawców off-net, aby mogli zapewnić usługi i przejąć wszystkie dochody.

Pułapek związanych z tym podejściem można łatwo uniknąć w następujący sposób: infrastruktura musi być w stanie różnicować user experience. Wymaga to wdrożenia warstwy sprawdzeń policy control i identity control, w celu powiązania wymagań aplikacji z zasobami sieci (patrz: Rys. 1). Dodatkową potrzebą jest rozwój partnerskiego ekosystemu specjalistów w błyskawicznie rozwijających się obszarach aplikacji, zawartości oraz urządzeń końcowego użytkownika/ home devices. Zrównoważony partnerski ekosystem ma miejsce wtedy, gdy każdy z partnerów może skoncentrować się na danej dziedzinie i specjalizować, a tym samym uniknąć posiadania szerokiego portfela usług, które częściowo pokrywają się z innymi i wchodzą wzajemnie w konflikt.

Maksymalizacja user experience maksymalizuje sukces branży
Oto, co może to oznaczać dla Ciebie: jako subskrybent usługi dostarczania szerokiego pasma 1 Mbps na poziomie „entry-level” będziesz mógł wybierać spośród szerokiej gamy zawartości sieci typu long-tail. Płacąc niewielką składkę będziesz mógł czasowo zwiększyć przepustowość potrzebną do wczytywania danych, aby wgrać film w technologii high-definition i za kilka minut zacząć go oglądać, co można przeciwstawić czasowi wczytywania wynoszącemu kilka godzin. A co najlepsze, będziesz całkowicie chroniony przed różnymi transakcjami związanymi z udostępnianiem danych uwierzytelniających tożsamość, przed zmianami w rozliczeniach lub zmianami w sieci. Dla Ciebie ważny będzie tylko film, a nie usługi internetowe.

Propozycja jest prosta: jeśli zaimplementujemy otwarte interfejsy oraz strukturę dla usług SOA/ Web, w celu powiązania wartościowych aplikacji z właściwościami dostarczania usług internetowych, wówczas zwiększymy korzyści z innowacji do maximum, usprawnimy user experience i w ten sposób odniesie korzyść każdy podmiot w łańcuchu tych wartości.

===================================================

Streszczenie:
Inteligentne sieci umożliwiają serwis Web 2.0

Jeżeli nowa fala aplikacji i rozwiązań architektury, które obecnie są w planach, ma odnieść sukces (Web 2.0, SOA itp.), wówczas podstawowa infrastruktura, na której działają, będzie potrzebowała dramatycznej zmiany właściwości. Bez tej zmiany wiele tych nowych inicjatyw nie powiedzie się, ponieważ nieuchronnie padną one ofiarą któregokolwiek spośród wielu zagrożeń bezpieczeństwa, wąskich gardeł wydajności oraz niemożności spełnienia wymogów user experience. Bogata zawartość oraz charakter architektury Web 2.0 i SOA przyczynia się do istnienia jeszcze większej liczby wrażliwych obszarów. To również rodzi potrzebę ścisłej kontroli wydajności dostarczania danych kolejno przez wiele sieci, a także potrzebę lepszych właściwości, które umożliwią zarządzanie dostarczaniem danych z centrum przetwarzania danych do końcowych użytkowników - a stosują oni coraz bardziej zróżnicowane urządzenia stacjonarne i mobilne.

Z perspektywy sieci, zmiana ta oznacza zarówno szansę, jak i ryzyko. Szansa leży w nowych przychodach z usługi oraz w potencjale różnicowania. Ryzyko polega na tym, że sieci większości operatorów nie są gotowe na te nowe rozwiązania architektury. Aby odnieść sukces, będą oni musieli, ponadto, wybrać podstawową infrastrukturę, która jest elastyczna i zdoła poradzić sobie z każdą nową aplikacją, a także jest otwarta i możliwa do dostosowywania do wymagań klienta.   Takie rozwiązania pozwalają w krótszym czasie wprowadzać na rynek wdrożenia nowych usług oraz sprostać presji redukowania kosztów operacyjnych, jak również ryzyka. Ten artykuł ogólnie przedstawia wymagania dla sieci, które mogą prawdziwie wesprzeć usługi webowe przyszłej generacji oraz serwis Web 2.0.

reklama

Ostatnie opinie internautów

Brak komentarzy

Pisz komentarze i wygrywaj nagrody

Nick
Email   (adres będzie widoczny tylko dla redakcji)
Opinia
pozostało znaków   1000
Różnica liczb 15 i 9 wynosi:




Ostatnie tematy z forum

Tani internet... 3.09.2018, 15:16

Nike Air Max 97 UL '17... 19.04.2018, 09:09

Nike Free RN Flyknit... 19.04.2018, 08:56

adidas nmd xr1 weiß 3.03.2018, 03:36

New Balance men's... 3.03.2018, 03:31

Archiwum wiadomości