PL
EN

Kategoria: pl

Starlink – przegląd satelitarnych usług internetowych firmy SpaceX



/Starlink – przegląd satelitarnych usług internetowych firmy SpaceX

W ostatnich latach SpaceX, firma rakietowa założona przez przedsiębiorcę miliardera – Elona Muska, trafiła na pierwsze strony gazet ze swoimi ambitnymi planami ustanowienia satelitarnej usługi internetowej o nazwie Starlink. Ma on na celu zapewnienie szybkiego, niskoopóźnionego dostępu do Internetu użytkownikom na całym świecie, w tym w odległych i wiejskich obszarach, gdzie tradycyjna infrastruktura internetowa jest niedostępna lub zawodna. W tym artykule przedstawimy przegląd Starlink i jego potencjalny wpływ na branżę internetową.

Co to jest Starlink?

Starlink to satelitarna usługa internetowa opracowana przez firmę SpaceX, której celem jest zapewnienie użytkownikom na całym świecie dostępu do szybkiego internetu o niskich opóźnieniach. Usługa opiera się na sieci tysięcy małych satelitów, które są wystrzeliwane na niską orbitę okołoziemską, która jest znacznie bliżej Ziemi niż tradycyjne satelity geostacjonarne wykorzystywane do komunikacji internetowej. Ta bliskość Ziemi pozwala na uzyskanie większych prędkości transferu danych i mniejszych opóźnień.

Jak działa Starlink?

Sieć satelitarna Starlink została zaprojektowana w celu zapewnienia dostępu do Internetu użytkownikom na ziemi poprzez sieć terminali użytkownika, które są w zasadzie małymi, płaskimi urządzeniami wielkości pudełka po pizzy, które mogą być zamontowane na dachu lub w innym miejscu z dobrym widokiem na niebo. Terminale użytkownika komunikują się z satelitami Starlink, aby zapewnić użytkownikom dostęp do Internetu o dużej szybkości i małych opóźnieniach. Sieć Starlink została zaprojektowana jako wysoce skalowalna, z planami uruchomienia tysięcy dodatkowych satelitów w nadchodzących latach. Dzięki temu Starlink będzie mógł zapewnić dostęp do Internetu większej liczbie użytkowników, zwłaszcza na obszarach odległych i wiejskich, gdzie tradycyjna infrastruktura internetowa jest niedostępna lub zawodna.

Jakie są potencjalne korzyści z zastosowania Starlink?

Potencjalne korzyści płynące z połączenia Starlink są liczne, zwłaszcza dla użytkowników z odległych i wiejskich obszarów. Dzięki tej technologii użytkownicy mogą uzyskać dostęp do szybkiego internetu o małych opóźnieniach, który jest porównywalny lub lepszy od tradycyjnych usług internetu przewodowego. Może to pomóc w zmniejszeniu przepaści cyfrowej, umożliwiając większej liczbie osób udział w gospodarce cyfrowej oraz dostęp do zasobów edukacyjnych i opieki zdrowotnej. Starlink może również zapewnić zapasowe usługi internetowe w miejscach, gdzie tradycyjna infrastruktura internetowa jest podatna na awarie lub zakłócenia, np. podczas klęsk żywiołowych lub innych sytuacji kryzysowych. Może to pomóc w poprawieniu komunikacji i koordynacji w czasie kryzysu, potencjalnie ratując życie i zmniejszając szkody.

Jakie są wyzwania i ograniczenia Starlink?

Chociaż Starlink ma potencjał, aby być technologią zmieniającą świat branży internetowej, stoi również przed kilkoma wyzwaniami i ograniczeniami. Jednym z największych wyzwań jest koszt wdrożenia i utrzymania sieci satelitarnej, który jest nadal dość wysoki w porównaniu z tradycyjną infrastrukturą internetu przewodowego. Starlink jest wciąż we wczesnej fazie wdrażania i dopiero okaże się, jak dobrze sprawdzi się w warunkach rzeczywistych, zwłaszcza na obszarach o niekorzystnej pogodzie lub innych warunkach środowiskowych, które mogłyby wpłynąć na jakość sygnału. Istnieją również obawy dotyczące wpływu sieci satelitarnej Starlink na badania astronomiczne, ponieważ jasne odbicia od satelitów mogą zakłócać obserwacje teleskopów.

Podsumowanie

Starlink to satelitarna usługa internetowa opracowana przez SpaceX, która ma na celu zapewnienie szybkiego dostępu do Internetu o niskich opóźnieniach użytkownikom na całym świecie, w tym użytkownikom z odległych i wiejskich obszarów. Chociaż technologia ta jest wciąż we wczesnej fazie wdrażania i stoi przed kilkoma wyzwaniami i ograniczeniami, ma potencjał, aby być technologią zmieniającą świat branży internetowej. W miarę uruchamiania kolejnych satelitów i rozbudowy sieci możemy spodziewać się jeszcze bardziej innowacyjnych zastosowań tej technologii w różnych branżach i aplikacjach.


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>

Supermicro Ultra SuperServer



/Supermicro Ultra SuperServer

Supermicro Ultra SuperServer® to 11. generacji, wysokowydajny serwer ogólnego przeznaczenia firmy Supermicro. Ultra został zaprojektowany z myślą o zapewnieniu najwyższej wydajności, elastyczności, skalowalności i łatwości serwisowania w wymagających środowiskach IT, a także w celu zasilania krytycznych obciążeń korporacyjnych.

Niezrównana wydajność: obsługa dwóch skalowalnych procesorów Intel® Xeon® drugiej generacji z maksymalnie 28rdzeniami na gniazdo i do 6 TB pamięci ECC DDR4 w 24 gniazdach DIMM z obsługą technologii Intel® Optane„¢ DCPMM sprawia, że Ultra jest przeznaczony do obsługi wymagających i złożonych obciążeń . Ultra jest dostępny w konfiguracjach NVMe all-flash, w których użytkownicy mogą korzystać ze zmniejszonych opóźnień i zwiększonych IOP. Dzięki NVMe możliwe jest nawet 7-krotne zwiększenie opóźnień pamięci masowej i zwiększenie przepustowości nawet 6-krotnie.1 Korzyści z inwestycji w ROI z wdrożeń NVMe są natychmiastowe i znaczne.

Wyjątkowa elastyczność: odkryj swobodę dostosowywania się do różnych obciążeń dzięki wszechstronnemu systemowi Supermicro Ultra. Ulepsz swoje środowisko serwerowe dzięki doskonałemu połączeniu mocy obliczeniowej, wydajności pamięci i pamięci masowej, elastyczności sieci i łatwości serwisowania. Ten wysoce skalowalny system zapewnia doskonałe opcje rozbudowy i przechowywania dzięki naszemu opatentowanemu systemowi pionowemu. Dzięki obsłudze wielu dodatkowych kart PCIe, Ultra przyszłość zabezpiecza Twoją firmę przed ciągle zmieniającymi się obliczeniami i pamięcią masową. Ten serwer Ultra został zaprojektowany do obsługi dowolnego obciążenia w dowolnej liczbie wymagających środowisk.

Ciągła niezawodność i łatwość serwisowania: osiągnij wyższy poziom wysokiej dostępności i przechowywania danych dzięki najnowszym skalowalnym procesorom Intel® Xeon®, modułom pamięci ECC DDR4, wnękom na dyski z możliwością wymiany podczas pracy z obsługą NVMe i energooszczędnym zasilaczom nadmiarowym. Zaprojektowany od podstaw jako klasa korporacyjna, Ultra jest w pełni wyposażony w energooszczędne komponenty i wbudowaną redundancję.


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>

Sztuczna inteligencja w chmurze obliczeniowej



/Sztuczna inteligencja w chmurze obliczeniowej

Sztuczna Inteligencja stała się w ciągu ostatnich kilku lat jednym z najgorętszych tematów w świecie IT. Od startup-ów po największe firmy globalne. Każdy stara się znaleźć nowe sposoby jej wykorzystania, aby zbudować aplikacje czy systemy, które działałyby lepiej niż poprzednie wersje, umożliwiłyby tworzenie rzeczy, które wcześniej były niemożliwe lub zbyt czasochłonne.
Sama koncepcja sztucznej inteligencji, mechanizmów, które wykorzystujemy, aby budować inteligentne systemy w większości nie jest jednak niczym nowym i istnieje już od kilkudziesięciu lat. Mimo wszystko to właśnie teraz obserwujemy jak poważnie może zmieniać nasz świat.

Powodów jest kilka. Po pierwsze, w dobie Internetu mamy dostęp do niemal nieograniczonego zbioru danych uczących, które możemy wykorzystać, aby nasze modele stawały się lepsze i dokładniejsze. Nawet jeśli jednak nie chcemy wykorzystywać danych z Internetu, to może się okazać, że nasze własne dane, które gromadzimy non stop na naszych serwerach, mogą w pełni wystarczyć. Drugim powodem jest dostęp do dostatecznie dużej mocy obliczeniowej – nauka modeli sztucznej inteligencji nie jest czynnością banalną i wymaga odpowiedniego zaplecza serwerowego. Okazuje się, że w dobie chmury obliczeniowej, gdzie w ciągu kilku minut możemy uruchomić 1 czy też 10 000 serwerów, moc obliczeniowa nie jest już problemem. Trzecim powodem przełomu, który wynika poniekąd z poprzednich, jest opracowanie lub ulepszenie algorytmów i narzędzi AI (przykładowo TensorFlow, Apache MXNet, Gluon i wiele innych).

Widzimy zatem, że budowanie aplikacji i systemów wykorzystujących AI stało się prostsze, ale wciąż nie jest banalne. Czy można zatem jednak to jeszcze uprościć? Tak, dzięki wykorzystaniu chmury obliczeniowej. Okazuje się bowiem, że obok znanych wszystkim usługom, takim jak serwery wirtualne, bazy danych czy usługi archiwizacyjne, istnieją również usługi AI.

Każdy projekt informatyczny, który będzie wykorzystywał AI jest oczywiście inny, mimo wszystko może się okazać, że jesteśmy w stanie wybrać takie usługi z portfolio chmury obliczeniowej, dzięki którym będziemy w stanie go zrealizować szybciej. Firmy, które nie mają kompetencji z zakresu AI, ale mimo wszystko pragną wykorzystać zalety jakie niesie, mogą wykorzystać gotowe usługi AI, które zostały opracowane, aby rozwiązać często pojawiające się problemy.


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>

Programowalne sieci komputerowe. Ewolucja przesyłania danych.



/Programowalne sieci komputerowe. Ewolucja przesyłania danych.

Sprzęt komputerowy coraz częściej fabrycznie wyposażany jest w szybkie karty sieciowe 2.5G, 5G, a nawet 10G oraz bezprzewodowe moduły WiFi 5, 6 i 6E. Chcąc wykorzystać jego możliwości komunikacyjne, należy przygotować w firmie odpowiednią infrastrukturę. Sprawne zarządzanie rozbudowaną siecią bywa kłopotliwe. Z pomocą przychodzi SDN.

Technologia SDN (Software Defined Network), czyli sieci sterowane programowo lub, jak się często określa, programowalne sieci komputerowe, to koncepcja zarządzania siecią LAN/WLAN, która polega na oddzieleniu fizycznej infrastruktury sieci związanej z transmisją danych od warstwy programowej, kontrolującej jej działanie. Dzięki temu istnieje opcja centralnego zarządzania siecią bez oglądania się na jej fizyczną budowę. Innymi słowy, administrator może sterować wieloma elementami infrastruktury, np.: routerami, punktami dostępowym, przełącznikami, firewallami, w taki sposób, jakby było to jedno urządzenie. Transmisja danych jest kontrolowana na poziomie globalnej sieci firmowej, niezwiązanej z pojedynczymi urządzeniami. Do kontrolowania takiej sieci najczęściej, choć nie zawsze, wykorzystuje się protokół OpenFlow. Koncepcja sieci SDN powstała w celu rozwiązania problemów z konfiguracją dużej liczby urządzeń sieciowych. Statyczna architektura tradycyjnych sieci jest zdecentralizowana i złożona, podczas gdy obecnie, w dobie wirtualizacji i systemów chmurowych, wymaga się od firmowej sieci znacznie większej elastyczności i łatwego rozwiązywania pojawiających się problemów. SDN centralizuje „inteligencję sieci” w jednym elemencie, oddzielając proces przekazywania pakietów sieciowych (płaszczyzna danych, data plane) od procesu routingu (płaszczyzna sterowania, control plane). Płaszczyzna sterowania składa się z jednego lub większej liczby kontrolerów – można je uznać za mózg sieci SDN, w którym skupia się cała inteligencja.

Administratorzy sieci uzyskują w rozwiązaniach SDN w każdej chwili pełen wgląd w jej topologię, co pozwala na lepszą i automatyczną alokację ruchu sieciowego, szczególnie w okresach wzmożonej transmisji danych. Sieci SDN pomagają zmniejszyć koszty operacyjne i wydatki kapitałowe.


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>

Używane górnicze GPU. Unikać jak ognia?



/Używane górnicze GPU. Unikać jak ognia?

Zwykle możesz chcieć unikać kart graficznych, które były używane przez całą dobę do kopania kryptowalut. Ale niekoniecznie tak jest w przypadku wielkiego niedoboru GPU, kiedy najlepsze karty graficzne są zawsze niedostępne, nawet jeśli mają wygórowane ceny.

Oczywistym zmartwieniem związanym z zakupem karty graficznej używanej do kopania jest to, że wydajność ulegnie znacznemu pogorszeniu, a GPU ulegnie awarii szybciej niż oczekiwano. Jednak generalnie tak nie jest. Z naszego doświadczenia wynika, że górnicze procesory graficzne nie wykazują znacznego zmniejszenia wydajności. Zbadajmy kilka możliwych powodów i kilka zastrzeżeń.


Doświadczeni górnicy GPU zazwyczaj zmniejszają pobór mocy i podkręcają swoje GPU, aby karta graficzna była bardziej wydajna, zwiększając tylko wydajność pamięci. W przeciwieństwie do tego, gracz będzie chciał przetaktować GPU, co jest bardziej ryzykownym przedsięwzięciem. Górnicy uruchamiają swoje karty graficzne 24 godziny na dobę, 7 dni w tygodniu, ale może to również pomóc zminimalizować cykl nagrzewania/chłodzenia, który jest szkodliwy dla krzemu. Z pewnością istnieją jednak inne niebezpieczeństwa. Ciepło jest głównym problemem procesorów graficznych. Jeśli były używane do wydobywania w bardzo gorącym środowisku bez odpowiedniego przepływu powietrza, mogą wystąpić problemy.

Kart graficznych może na rynku przybyć przy spadku wartości kryptowalut. Interesując się zakupem takiej karty, warto wypytać sprzedającego o szczegóły takie jak czas jej pracy, temperatura w jakiej pracowała karta i jakie osiągała parametry cieplne a ponadto czy była podkręcana.


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>

AMD EPYC – Czy Intel ma jeszcze szanse?



/AMD EPYC – Czy Intel ma jeszcze szanse?

AMD EPYC 7643 z rodziny Milan został dostrzeżony w bazie benchmarku Geekbench. Tam pokazał moc drzemiącą w rdzeniach opartych na mikroarchitekturze Zen 3. Okazuje się, że jeden procesor uzyskał lepszy wynik w teście w porównaniu do platformy składającej się z podwójnego Intel Xeon.

EPYC 7643 to jeden z nowych procesorów AMD z serii Milan. Jest to 48-rdzeniowy układ z obsługą maksymalnie 96 wątków, który bazuje na mikroarchiteturze Zen 3. Został on dostrzeżony w bazie benchmarku Geekbench. Tu mamy okazję zapoznać się z wydajnością CPU.

AMD EPYC 7643 w teście jednego rdzenia w Geekbench 4 wykręcił 5850 punktów. W przypadku wielu rdzeni było to ponad 121 tys. punktów. Wiemy, że podstawowe taktowanie wynosi tutaj 2,3 GHz. Natomiast w przypadku podwyższonej mocy jest to maksymalnie 3,6 GHz.

Wydajność tego układu AMD EPYC jest naprawdę wysoka. Dla porównania podwójny Intel Xeon Platinum 8276 mający 56 rdzeni i wspierający 112 wątków w teście Single Core wykręca 4913 punktów. Natomiast w Multi-Core jest to 112457 punktów. Nowy procesor konkurencji jest więc lepszy.

Źródło: www.komputerswiat.pl


post->ID ); if ( ! empty( $postcat ) ) { if($postcat[0]->cat_ID == 7) { echo ''; } else { echo ''; } } ?>