PL
EN

Miesiąc: kwiecień 2023

ITAD a Recykling Elektroniki, Co Je Różni?



/ITAD a Recykling Elektroniki, Co Je Różni?

Urządzenia elektroniczne, przykładowo smartfony, laptopy,  telewizory, urządzenie AGD,  stanowią integralną część naszego codziennego życia. Jednak ciągłe unowocześnianie oraz wyrzucanie tych urządzeń powoduje powstawanie odpadów elektronicznych, które mogą szkodzić środowisku i zdrowiu ludzi. Rozwiązaniem tego problemu jest elektrorecykling, który zapewnia bezpieczny sposób recyklingu urządzeń elektronicznych.Jednak recykling elektroniki i utylizacja aktywów IT (ITAD) to dwa terminy, które często są używane zamiennie, ale w rzeczywistości są to dwa odrębne procesy. Chociaż oba obejmują prawidłową utylizację sprzętu elektronicznego, mają różne cele i metody. W tym artykule omówimy różnice między recyklingiem elektroniki a ITAD.

Recykling elektroniki

Recykling elektroniki to proces zbierania, demontażu i oddzielania różnych elementów urządzeń elektronicznych w celu odzyskania cennych materiałów, takich jak miedź, aluminium i metale szlachetne. Recykling pomaga zmniejszyć ilość odpadów elektronicznych, które trafiają na wysypiska, chroni zasoby naturalne i zmniejsza wpływ produkcji nowych urządzeń elektronicznych na środowisko.

Utylizacja aktywów IT (ITAD)

Utylizacja aktywów IT to bardziej kompleksowy proces, który obejmuje właściwe zarządzanie wszystkimi aspektami wycofanych aktywów IT. Obejmuje to sanityzację danych, bezpieczne przechowywanie, remarketing i przyjazną dla środowiska utylizację. Celem ITAD jest maksymalizacja wartości wycofywanych aktywów IT przy jednoczesnej minimalizacji ryzyka związanego z bezpieczeństwem danych, zgodnością z przepisami i wpływem na środowisko.

Sanityzacja danych

Jedną z kluczowych różnic pomiędzy recyklingiem elektroniki a ITAD jest nacisk na bezpieczeństwo danych. W ITAD, sanityzacja danych jest krytycznym elementem procesu. Polega ona na bezpiecznym usunięciu lub zniszczeniu danych z wycofywanych aktywów IT, aby zapewnić, że wrażliwe informacje nie dostaną się w niepowołane ręce. Sanityzacja danych musi być przeprowadzona zgodnie z normami i przepisami branżowymi, aby zapewnić zgodność z przepisami.

Proces remarketingu 

Ten proces polega na ocenie stanu i wartości wycofanego sprzętu IT, który przed sprzedażą może wymagać naprawy lub usunięcia danych. Dostawcy ITAD mogą odsprzedać sprzęt za pośrednictwem rynków internetowych lub programów odkupu. Remarketing przynosi korzyści przedsiębiorstwom poprzez odzyskiwanie wartości i zapewnienie przystępnych opcji dla osób prywatnych i małych firm. Jest to również korzystne dla środowiska poprzez zmniejszenie ilości odpadów elektronicznych i ochronę zasobów.

Różnice między recyklingiem elektroniki a ITAD

Chociaż recykling elektroniki i ITAD mają wspólny cel, jakim jest redukcja odpadów elektronicznych, istnieją pewne kluczowe różnice między tymi dwoma praktykami. Recykling elektroniki skupia się na odzyskiwaniu cennych materiałów z urządzeń, natomiast ITAD zajmuje się bezpieczną utylizacją wycofanego sprzętu IT. Dostawcy usług ITAD muszą przestrzegać ścisłych standardów bezpieczeństwa danych i zapewnić, że wszystkie dane zostaną bezpiecznie usunięte przed utylizacją lub odsprzedażą.

Korzyści z recyklingu elektroniki i ITAD

Recykling elektroniki i ITAD oferują szereg korzyści, w tym korzyści środowiskowe i ekonomiczne. Recykling elektroniki zmniejsza ilość odpadów na składowiskach i chroni zasoby naturalne. Tworzy również możliwości zatrudnienia w branży recyklingu. ITAD zapewnia firmom bezpieczny i efektywny kosztowo sposób pozbycia się wycofanego sprzętu IT przy jednoczesnym zapewnieniu, że wrażliwe dane zostaną bezpiecznie usunięte. ITAD pozwala również firmom odzyskać część wartości wycofanego sprzętu IT poprzez jego odsprzedaż lub darowiznę.

Podsumowanie

Recykling elektroniki oraz ITAD to dwie ważne praktyki, które pomagają zmniejszyć ilość odpadów elektronicznych i promować bardziej zrównoważoną przyszłość. Podczas gdy recykling elektroniki skupia się na odzyskiwaniu cennych materiałów z urządzeń elektronicznych, ITAD zajmuje się bezpiecznym usuwaniem wycofanego sprzętu IT. Dzięki współpracy z renomowanymi firmami zajmującymi się recyklingiem elektroniki i ITAD, na przykład SDR-IT wraz z partnerem strategicznym COMPAN-IT,  osoby prywatne i firmy mogą mieć pewność, że ich odpady elektroniczne są odpowiednio zarządzane i utylizowane w sposób bezpieczny i przyjazny dla środowiska.


Serwery i Centra Danych



/Serwery i Centra Danych

Centra danych oraz serwery stanowią kręgosłup współczesnego świata cyfrowego. Codziennie przechowują, przetwarzają i przesyłają ogromne ilości danych, umożliwiając nam dostęp do informacji, komunikację z innymi i prowadzenie działalności w Internecie. W tym artykule przedstawimy znaczenie centrów danych i serwerów, sposób ich działania, a także wyzwania oraz trendy kształtujące ich przyszłość.

Czym jest centrum danych?

Centrum danych jest obiektem używanym do przechowywania systemów komputerowych i powiązanych komponentów, takich jak systemy telekomunikacyjne oraz pamięci masowej. Centra danych są zaprojektowane w celu zapewnienia wysokiego poziomu dostępności, bezpieczeństwa i niezawodności, aby zapewnić, że przechowywane i przetwarzane dane są zawsze dostępne i chronione.

Występują one w różnych rozmiarach, od małych serwerowni po duże obiekty korporacyjne, które mogą zajmować setki metrów kwadratowych. Niektóre centra danych są własnością i są obsługiwane przez pojedyncze organizacje, podczas gdy inne są obsługiwane przez zewnętrznych dostawców usług i oferują usługi hostingowe dla wielu klientów.

Jak działają serwery?

Serwery stanowią podstawę centrów danych, zapewniając moc obliczeniową potrzebną do przetwarzania i przechowywania danych. Serwer to system komputerowy, który jest przeznaczony do świadczenia określonych usług lub zasobów dla innych komputerów lub urządzeń podłączonych do sieci.

Serwery mogą pełnić wiele funkcji, takich jak hosting stron internetowych, uruchamianie aplikacji oraz przechowywanie i przetwarzanie danych. Serwer może być maszyną fizyczną lub maszyną wirtualną, która działa na maszynie fizycznej. Technologia wirtualizacji umożliwia uruchomienie wielu wirtualnych serwerów na jednej maszynie fizycznej, co pozwala organizacjom zmaksymalizować zasoby obliczeniowe i zmniejszyć koszty.

Wyzwania i trendy

Wraz z ciągłym wzrostem zapotrzebowania na usługi cyfrowe, centra danych i serwery stoją przed kilkoma wyzwaniami i trendami, które będą kształtować ich przyszłość.

  • Jednym z podstawowych wyzwań jest potrzeba większej efektywności energetycznej. Centra danych zużywają ogromne ilości energii, a wraz ze wzrostem liczby centrów danych rośnie ich wpływ na środowisko. Aby sprostać temu wyzwaniu, centra danych stosują bardziej energooszczędne technologie, takie jak zaawansowane systemy chłodzenia, oraz wykorzystują odnawialne źródła energii, takie jak energia słoneczna i wiatrowa.
  • Kolejnym wyzwaniem jest potrzeba większego bezpieczeństwa. Naruszenie danych może mieć poważne konsekwencje, zarówno dla organizacji, jak i osób prywatnych. Centra danych wdrażają bardziej rygorystyczne środki bezpieczeństwa, takie jak uwierzytelnianie wieloczynnikowe i szyfrowanie, w celu ochrony przed cyberatakami.
  • Jeśli chodzi o trendy, “edge computing” wyłania się jako istotny trend w architekturze centrów danych i serwerów. Polega on na przetwarzaniu danych bliżej źródła, zmniejszając opóźnienia i poprawiając wydajność. Jest to szczególnie ważne dla aplikacji wymagających przetwarzania danych w czasie rzeczywistym, takich jak pojazdy autonomiczne i automatyka przemysłowa.

Podsumowanie

Centra danych i serwery są podstawowymi elementami infrastruktury cyfrowej, która wspiera nasz współczesny świat. Umożliwiają nam dostęp do ogromnych ilości informacji i ich przechowywanie, a także zapewniają moc obliczeniową niezbędną dla krytycznych aplikacji i usług. Wraz z ciągłym wzrostem zapotrzebowania na usługi cyfrowe, centra danych i serwery będą musiały stawić czoła ciągłym wyzwaniom i trendom, które będą kształtować ich przyszłość. Przyjmując innowacyjne technologie i strategie, centra danych i serwery mogą nadal ewoluować i spełniać potrzeby naszego szybko zmieniającego się cyfrowego świata.


Maszyna Wirtualna – Czym Jest i Dlaczego Jest Tak Przydatna?



/Maszyna Wirtualna – Czym Jest i Dlaczego Jest Tak Przydatna?

Wiele z dzisiejszych najnowocześniejszych technologii, takich jak chmura obliczeniowa, edge computing i mikrosierwisy, zawdzięcza swój początek koncepcji maszyny wirtualnej – oddzielenia systemów operacyjnych i instancji oprogramowania od bazowego komputera fizycznego.

Czym jest maszyna wirtualna?

Maszyna wirtualna (VM) to oprogramowanie, które uruchamia programy lub aplikacje bez powiązania z maszyną fizyczną. W instancji maszyny wirtualnej na komputerze-hoście może działać jedna lub więcej maszyn gościnnych. Każda maszyna wirtualna ma swój własny system operacyjny i działa niezależnie od innych maszyn wirtualnych, nawet jeśli znajdują się one na tym samym hoście fizycznym. Maszyny wirtualne są zazwyczaj uruchamiane na serwerach, ale mogą być również uruchamiane na systemach stacjonarnych, a nawet na platformach wbudowanych. Wiele maszyn wirtualnych może współdzielić zasoby z fizycznego hosta, w tym cykle procesora, przepustowość sieci i pamięć.

Można powiedzieć, że maszyny wirtualne powstały już u początków informatyki w latach 60-tych XX wieku, kiedy to w celu oddzielenia oprogramowania od fizycznego systemu hosta stosowano współdzielenie czasu dla użytkowników komputerów mainframe. Maszyna wirtualna została zdefiniowana na początku lat 70. jako „wydajny, odizolowany duplikat prawdziwej maszyny komputerowej”.

Maszyny wirtualne, jakie znamy dziś, zyskały na popularności w ciągu ostatnich 20 lat, gdy firmy przyjęły wirtualizację serwerów w celu bardziej efektywnego wykorzystania mocy obliczeniowej serwerów fizycznych, zmniejszając ich liczbę i oszczędzając miejsce w centrum danych. Ponieważ aplikacje o różnych wymaganiach systemowych mogły być uruchamiane na jednym fizycznym hoście, dla każdej z nich nie był wymagany inny sprzęt serwerowy.

Jak działają maszyny wirtualne?

Ogólnie rzecz biorąc, istnieją dwa rodzaje maszyn wirtualnych: procesowe maszyny wirtualne, które wydzielają pojedynczy proces, oraz systemowe maszyny wirtualne, które oferują pełne oddzielenie systemu operacyjnego i aplikacji od fizycznego komputera. Przykładami procesowych maszyn wirtualnych są Java Virtual Machine, .NET Framework i maszyna wirtualna Parrot. Systemowe maszyny wirtualne opierają się na hyperwizorach jako pośrednikach, które dają oprogramowaniu dostęp do zasobów sprzętowych. Hyperwizor emuluje procesor, pamięć, dysk twardy, sieć i inne zasoby sprzętowe komputera, tworząc pulę zasobów, które mogą być przydzielane poszczególnym maszynom wirtualnym zgodnie z ich specyficznymi wymaganiami. Hyperwizor może obsługiwać wiele wirtualnych platform sprzętowych, które są od siebie odizolowane, umożliwiając maszynom wirtualnym uruchamianie systemów operacyjnych Linux i Windows Server na tym samym fizycznym hoście.

Znani dostawcy hyperwizorów to VMware (ESX/ESXi), Intel/Linux Foundation (Xen), Oracle (MV Server for SPARC i Oracle VM Server for x86) oraz Microsoft (Hyper-V). Systemy komputerów stacjonarnych również mogą wykorzystywać maszyny wirtualne. Przykładem może być użytkownik komputera Mac, który uruchamia wirtualną instancję systemu Windows na swoim fizycznym sprzęcie Mac.

Jakie są dwa rodzaje hyperwizorów?

Hyperwizor zarządza zasobami i przydziela je maszynom wirtualnym. Ponadto planuje i dostosowuje sposób dystrybucji zasobów w oparciu o konfigurację hyperwizora i maszyn wirtualnych, a także może realokować zasoby w przypadku zmian zapotrzebowania. Większość hyperwizorów należy do jednej z dwóch kategorii:

  • Typ 1. Hyperwizor typu bare-metal działa bezpośrednio na fizycznym hoście i ma bezpośredni dostęp do jego sprzętu. Hyperwizory typu 1 działają zwykle na serwerach i są uważane za bardziej wydajne i lepiej funkcjonujące niż hyperwizory typu 2, dzięki czemu dobrze nadają się do wirtualizacji serwerów, desktopów i aplikacji. Przykładami hyperwizorów typu 1 są Microsoft Hyper-V i VMware ESXi.
  • Typ 2. Czasami nazywany hyperwizorem hostowanym, hyperwizor typu 2 jest instalowany na wierzchu systemu operacyjnego maszyny głównej, który zarządza połączeniami z zasobami sprzętowymi. Hiperwizory typu 2 są zazwyczaj wdrażane w systemach użytkowników końcowych dla określonych przypadków użycia. Na przykład, programista może użyć hyperwizora typu 2 do stworzenia specyficznego środowiska do budowy aplikacji lub analityk danych może użyć go do testowania aplikacji w odizolowanym środowisku. Przykładami są VMware Workstation i Oracle VirtualBox.

Jakie są zalety maszyn wirtualnych?

Ponieważ oprogramowanie jest oddzielone od fizycznego komputera gospodarza, użytkownicy mogą uruchamiać wiele instancji systemu operacyjnego na jednym kawałku sprzętu, co pozwala firmie zaoszczędzić czas, koszty zarządzania i przestrzeń fizyczną. Inną zaletą jest to, że maszyny wirtualne mogą obsługiwać starsze aplikacje, zmniejszając lub eliminując potrzebę i koszty migracji starszej aplikacji do zaktualizowanego lub innego systemu operacyjnego. Ponadto programiści wykorzystują maszyny wirtualne do testowania aplikacji w bezpiecznym, piaskowym środowisku. Programiści chcący sprawdzić, czy ich aplikacje będą działać na nowym systemie operacyjnym, mogą wykorzystać maszyny wirtualne do testowania oprogramowania zamiast kupować z wyprzedzeniem nowy sprzęt i system operacyjny. Na przykład, Microsoft niedawno zaktualizował swoje darmowe maszyny wirtualne Windows, które pozwalają programistom pobrać ewaluacyjną maszynę wirtualną z systemem Windows 11, aby wypróbować system operacyjny bez konieczności aktualizowania głównego komputera. Może to również pomóc w wyizolowaniu złośliwego oprogramowania, które może zainfekować daną instancję maszyny wirtualnej. Ponieważ oprogramowanie w maszynie wirtualnej nie może manipulować komputerem głównym, złośliwe oprogramowanie nie może rozprzestrzeniać tak dużych szkód.

Jakie są wady maszyn wirtualnych?

Maszyny wirtualne mają kilka wad. Uruchomienie wielu maszyn wirtualnych na jednym fizycznym hoście może skutkować niestabilną wydajnością, zwłaszcza jeśli wymagania infrastrukturalne dla danej aplikacji nie są spełnione. To również sprawia, że w wielu przypadkach są one mniej wydajne w porównaniu z komputerem fizycznym. W dodatku, jeśli fizyczny serwer ulegnie awarii, wszystkie działające na nim aplikacje przestaną działać. Większość sklepów IT wykorzystuje równowagę pomiędzy systemami fizycznymi i wirtualnymi.

Jakie są inne formy wirtualizacji?

Sukces maszyn wirtualnych w wirtualizacji serwerów doprowadził do zastosowania wirtualizacji w innych obszarach, takich jak pamięć masowa, sieć i komputery stacjonarne. Jeśli w centrum danych wykorzystywany jest jakiś rodzaj sprzętu, to istnieje możliwość zwirtualizowania go (np. kontrolery dostarczania aplikacji). W zakresie wirtualizacji sieci firmy badają opcje network-as-a-service oraz wirtualizację funkcji sieciowych (NFV), która wykorzystuje serwery klasy commodity do zastąpienia wyspecjalizowanych urządzeń sieciowych, aby umożliwić bardziej elastyczne i skalowalne usługi. Różni się to nieco od sieci definiowanej programowo, która oddziela płaszczyznę sterowania siecią od płaszczyzny przekazywania danych, aby umożliwić bardziej zautomatyzowane dostarczanie i zarządzanie zasobami sieciowymi oparte na polityce. Trzecia technologia, wirtualne funkcje sieciowe, to oparte na oprogramowaniu usługi, które mogą działać w środowisku NFV, w tym procesy takie jak routing, zapora ogniowa, równoważenie obciążenia, przyspieszenie sieci WAN i szyfrowanie.

Na przykład Verizon wykorzystuje NFV do świadczenia swoich wirtualnych usług sieciowych, które umożliwiają klientom uruchamianie nowych usług i możliwości na żądanie. Usługi obejmują aplikacje wirtualne, routing, sieci WAN definiowane programowo, optymalizację sieci WAN, a nawet kontroler Session Border Controller jako usługę (SBCaaS) do centralnego zarządzania i bezpiecznego wdrażania usług czasu rzeczywistego opartych na protokole IP, takich jak VoIP i ujednolicona komunikacja.

Maszyny wirtualne i kontenery

Rozwój maszyn wirtualnych doprowadził do dalszego rozwoju technologii takich jak kontenery, które stanowią kolejny krok w rozwoju tej koncepcji i zyskują uznanie wśród twórców aplikacji internetowych. W środowisku kontenerowym pojedyncza aplikacja wraz z jej zależnościami może zostać zwirtualizowana. Przy znacznie mniejszym narzucie niż maszyna wirtualna, kontener zawiera jedynie binaria, biblioteki i aplikacje. Chociaż niektórzy uważają, że rozwój kontenerów może zabić maszynę wirtualną, istnieje wystarczająco dużo możliwości i korzyści z maszyn wirtualnych, aby utrzymać tę technologię w ruchu. Na przykład maszyny wirtualne pozostają przydatne podczas uruchamiania wielu aplikacji razem lub podczas uruchamiania starszych aplikacji na starszych systemach operacyjnych. Ponadto, zdaniem niektórych, kontenery są mniej bezpieczne niż hyperwizory VM, ponieważ kontenery mają tylko jeden system operacyjny, który aplikacje współdzielą, podczas gdy maszyny wirtualne mogą izolować aplikację i system operacyjny. Gary Chen, kierownik badań w dziale Software-Defined Compute firmy IDC, powiedział, że rynek oprogramowania maszyn wirtualnych pozostaje technologią fundamentalną, nawet w miarę jak klienci badają architektury chmurowe i kontenery. „Rynek oprogramowania maszyn wirtualnych był niezwykle odporny i będzie nadal pozytywnie rósł w ciągu najbliższych pięciu lat, mimo że jest wysoce dojrzały i zbliża się do nasycenia” – pisze Chen w opracowaniu IDC „Worldwide Virtual Machine Software Forecast, 2019-2022”.

Maszyny wirtualne, 5G i edge computing

Maszyny wirtualne są postrzegane jako część nowych technologii, takich jak 5G i edge computing. Na przykład dostawcy infrastruktury wirtualnych desktopów (VDI), tacy jak Microsoft, VMware i Citrix, szukają sposobów na rozszerzenie swoich systemów VDI na pracowników, którzy teraz pracują w domu w ramach modelu hybrydowego post-COVID. „W przypadku VDI potrzebujesz ekstremalnie niskich opóźnień, ponieważ wysyłasz swoje naciśnięcia klawiszy i ruchy myszy do w zasadzie zdalnego pulpitu” – mówi Mahadev Satyanarayanan, profesor informatyki na Carnegie Mellon University. W 2009 roku Satyanarayanan napisał o tym, jak można wykorzystać chmury oparte na maszynach wirtualnych, aby zapewnić lepsze możliwości przetwarzania urządzeniom mobilnym na obrzeżach Internetu, co doprowadziło do rozwoju edge computing. W przestrzeni bezprzewodowej 5G proces krojenia sieci wykorzystuje sieci definiowane programowo i technologie NFV, aby pomóc w zainstalowaniu funkcjonalności sieci na maszynach wirtualnych na zwirtualizowanym serwerze w celu zapewnienia usług, które kiedyś działały tylko na zastrzeżonym sprzęcie. Podobnie jak wiele innych używanych obecnie technologii, te wyłaniające się innowacje nie powstałyby, gdyby nie oryginalne koncepcje maszyn wirtualnych wprowadzone dziesiątki lat temu.

źródło: https://www.computerworld.pl


Virtual Machine – What Is It And Why Is It So Useful?



/Virtual Machine – What Is It And Why Is It So Useful?

Many of today’s cutting-edge technologies such as cloud computing, edge computing and microservices, owe their start to the concept of the virtual machine—separating operating systems and software instances from the underlying physical computer.

What is a virtual machine?

A virtual machine (VM) is software that runs programs or applications without being tied to a physical machine. In a VM instance, one or more guest machines can run on a host computer.Each VM has its own operating system, and functions separately from other VMs, even if they are located on the same physical host. VMs generally run on servers, but they can also be run on desktop systems, or even embedded platforms. Multiple VMs can share resources from a physical host, including CPU cycles, network bandwidth and memory.

VMs trace their origins to the early days of computing in the 1960s when time sharing for mainframe users was used to separate software from a physical host system. A virtual machine was defined in the early 1970s as “an efficient, isolated duplicate of a real computer machine.”

VMs as we know them today have gained steam over the past 20 years as companies adopted server virtualization in order to utilize the compute power of their physical servers more efficiently, reducing the number of physical servers and saving space in the data center. Because apps with different OS requirements could run on a single physical host, different server hardware was not required for each one.

How do VMs work?

In general, there are two types of VMs: Process VMs, which separate a single process, and system VMs, which offer a full separation of the operating system and applications from the physical computer. Examples of process VMs include the Java Virtual Machine, the .NET Framework and the Parrot virtual machine.

Virtual Machine, the .NET Framework and the Parrot virtual machine. System VMs rely on hypervisors as a go-between that give software access to the hardware resources. The hypervisor emulates the computer’s CPU, memory, hard disk, network and other hardware resources, creating a pool of resources that can be allocated to the individual VMs according to their specific requirements. The hypervisor can support multiple virtual hardware platforms that are isolated from each other, enabling VMs to run Linux and Windows Server OSes on the same physical host.

Big names in the hypervisor space include VMware (ESX/ESXi), Intel/Linux Foundation (Xen), Oracle (MV Server for SPARC and Oracle VM Server for x86) and Microsoft (Hyper-V). Desktop computer systems can also utilize virtual machines. An example here would be a Mac user running a virtual Windows instance on their physical Mac hardware.

What are the two types of hypervisors?

The hypervisor manages resources and allocates them to VMs. It also schedules and adjusts how resources are distributed based on how the hypervisor and VMs have been configured, and it can reallocate resources as demands fluctuate. Most hypervisors fall into one of two categories:

  • Type 1 – A bare-metal hypervisor runs directly on the physical host machine and has direct access to its hardware. Type 1 hypervisors typically run on servers and are considered more efficient and better-performing than Type 2 hypervisors, making them well suited to server, desktop and application virtualization. Examples of Type 1 hypervisors include Microsoft Hyper-V and VMware ESXi.
  • Type 2 – Sometimes called a hosted hypervisor, a Type 2 hypervisor is installed on top of the host machine’s OS, which manages calls to the hardware resources. Type 2 hypervisors are generally deployed on end-user systems for specific use cases. For example, a developer might use a Type 2 hypervisor to create a specific environment for building an application, or a data analyst might use it to test an application in an isolated environment. Examples include VMware Workstation and Oracle VirtualBox.

What are the advantages of virtual machines?

Because the software is separate from the physical host computer, users can run multiple OS instances on a single piece of hardware, saving a company time, management costs and physical space. Another advantage is that VMs can support legacy apps, reducing or eliminating the need and cost of migrating an older app to an updated or different operating system. In addition, developers use VMs in order to test apps in a safe, sandboxed environment. Developers looking to see whether their applications will work on a new OS can utilize VMs to test their software instead of purchasing the new hardware and OS ahead of time. For example, Microsoft recently updated its free Windows VMs that let developers download an evaluation VM with Windows 11 to try the OS without updating a primary computer. This can also help isolate malware that might infect a given VM instance. Because software inside a VM cannot tamper with the host computer, malicious software cannot spread as much damage.

What are the downsides of virtual machines?

Virtual machines do have a few disadvantages. Running multiple VMs on one physical host can result in unstable performance, especially if infrastructure requirements for a particular application are not met. This also makes them less efficient in many cases when compared to a physical computer. And if the physical server crashes, all of the applications running on it will go down. Most IT shops utilize a balance between physical and virtual systems.

What are some other forms of virtualization?

The success of VMs in server virtualization led to applying virtualization to other areas including storage, networking, and desktops. Chances are if there’s a type of hardware that’s being used in the data center, the concept of virtualizing it is being explored (for example, application delivery controllers). In network virtualization, companies have explored network-as-a-service options and network functions virtualization (NFV), which uses commodity servers to replace specialized network appliances to enable more flexible and scalable services. This differs a bit from software-defined networking, which separates the network control plane from the forwarding plane to enable more automated provisioning and policy-based management of network resources. A third technology, virtual network functions, are software-based services that can run in an NFV environment, including processes such as routing, firewalling, load balancing, WAN acceleration, and encryption. Verizon, for example, uses NFV to power its Virtual Network Services that enables customers to spin up new services and capabilities on demand. Services include virtual applications, routing, software-defined WANs, WAN optimization and even Session Border Controller as a Service (SBCaaS) to centrally manage and securely deploy IP-based real-time services, such as VoIP and unified communications.

VMs and containers

The growth of VMs has led to further development of technologies such as containers, which take the concept another step and is gaining appeal among web application developers. In a container setting, a single application along with its dependencies, can be virtualized. With much less overhead than a VM, a container only includes binaries, libraries, and applications. While some think the development of containers may kill the virtual machine, there are enough capabilities and benefits of VMs that keep the technology moving forward. For example, VMs remain useful when running multiple applications together, or when running legacy applications on older operating systems. In addition, some feel that containers are less secure than VM hypervisors because containers have only one OS that applications share, while VMs can isolate the application and the OS. Gary Chen, the research manager of IDC’s Software-Defined Compute division, said the VM software market remains a foundational technology, even as customers explore cloud architectures and containers. “The virtual machine software market has been remarkably resilient and will continue to grow positively over the next five years, despite being highly mature and approaching saturation,” Chen writes in IDC’s Worldwide Virtual Machine Software Forecast, 2019-2022.

VMs, 5G and edge computing

VMs are seen as a part of new technologies such as 5G and edge computing. For example, virtual desktop infrastructure (VDI) vendors such as Microsoft, VMware and Citrix are looking at ways to extend their VDI systems to employees who now work at home as part of a post-COVID hybrid model. “With VDI, you need extremely low latency because you are sending your keystrokes and mouse movements to basically a remote desktop,” says Mahadev Satyanarayanan, a professor of computer science at Carnegie Mellon University. In 2009, Satyanarayanan wrote about how virtual machine-based cloudlets could be used to provide better processing capabilities to mobile devices on the edge of the Internet, which led to the development of edge computing. In the 5G wireless space, the process of network slicing uses software-defined networking and NFV technologies to help install network functionality onto VMs on a virtualized server to provide services that once ran only on proprietary hardware. Like many other technologies in use today, these emerging innovations would not have been developed had it not been for the original VM concepts introduced decades ago.


Supermicro Ultra SuperServer



/Supermicro Ultra SuperServer

Supermicro Ultra SuperServer® is Supermicro’s 11th generation high performance general purpose server. The Ultra is designed to provide the highest performance, flexibility, scalability and serviceability in demanding IT environments, as well as to power critical corporate workloads.

Unmatched performance: support for two 2nd Generation Intel® Xeon® Scalable processors with up to 28 cores per socket and up to 6TB of ECC DDR4 memory in 24 DIMM slots with Intel® Optane “¢ DCPMM support, the Ultra is designed to support demanding and complex loads. The Ultra is available in NVMe all-flash configurations where users can benefit from reduced latency and increased IOP. With NVMe, it is possible to increase storage latency up to 7x and increase throughput by up to 6x.1 The ROI benefits of NVMe deployments are immediate and significant.

Exceptional flexibility: discover the freedom to adapt to different loads with the versatile Supermicro Ultra system. Improve your server environment with the perfect combination of computing power, memory and storage performance, network flexibility and serviceability. This highly scalable system provides excellent expansion and storage options thanks to our patented vertical system. With support for multiple PCIe add-on cards, the Ultra Future protects your business against ever-changing computation and storage. This Ultra server is designed to handle any workload in any number of demanding environments.

Continuous reliability and serviceability: Achieve higher levels of high availability and data storage with the latest Intel® Xeon® Scalable processors, ECC DDR4 memory modules, NVMe-enabled disk bays, and energy-efficient redundant power supplies. Designed from the ground up as an enterprise class, the Ultra is fully equipped with energy-efficient components and built-in redundancy.

Supermicro Ultra Servers are designed to give the greatest possible power, flexibility and scalability. It is a great choice to meet the most demanding operations in Enterprise, Data Center and Cloud Computing environments.