Pomoc Xopero - Private Cloud Backup

Przydała by się dokumentacja. Utknąłem w martwym punkcie.
Jest Managment na siłę zainstalowany na Parallels Windows 8.1 ale nawet licencji swojej nie mogę wbić ponieważ dalej uruchamiając appkę na QTS mam piękny baner z poprzedniego postu uniemożliwiający mi jakąkolwiek uruchomienia
Zainstalowałem agenta na maszynie Parallels Windows 8.1 Pro no i tak skonfigurowałem projekt
ai62.tinypic.com_5a16ih.png


błąd uruchomienia pojawia się taki ( do zmiany jest tekst błędu się wyświetlał w multilinii ) Ciężko jest zmieniać rozmiar okna
ai57.tinypic.com_2cpde7k.png
 
@spietrza

Dzień dobry,

błąd który otrzymał Pan podczas backupu VHD pochodzi z narzędzia Kopia zapasowa systemu Windows, które odpowiedzialne jest za przygotowywanie obrazów VHD. Z informacji na zrzucie ekranu mogę wywnioskować, że jedna ze wskazanych partycji posiada system plików różny od NTFS, a tym samym wspomniane narzędzie nie jest w stanie jej obsłużyć. Proszę jednak o przesłanie logów aplikacji, co może Pan wykonać bezpośrednio z poziomu aplikacji. W tym celu należy przejść do ustawień aplikacji, a następnie w zakładce Zaawansowane skorzystać z opcji Wyślij raport.

Wspominał Pan wcześniej o braku możliwości przejścia do konfiguracji oprogramowania Xopero ze względu na ograniczenia systemów operacyjnych. Niestety, ale bez pobrania i instalacji aplikacji Management Center nie będzie Pan w stanie korzystać z Xopero, gdyż za jej pośrednictwem są konfigurowane magazyny danych, które są niezbędne do poprawnego działania naszej platformy.

Pozdrawiam,
Grzegorz Bąk
 
Ja mam za to inny problem z VHD bo nie udaje się mi go zainicjować w żaden sposób. Otrzymuję informację że projekt nie zawiera plików (błąd nr E1006)

ai.imgur.com_godCdXU.png ai.imgur.com_v2ZV9rr.png


OS: Windows 10
 
@Xopero dziękuję za szybką odpowiedź.

Raport wg wskazanej procedury został wysłany do Was.

Jednak chciałbym się bardziej pochylić nad polami w projekcie. Jeśli źle je rozumiem będę wdzięczny za wyprostowanie ( pomoc ).

Zakładając nowy projekt mamy do wypełnienia pola :

  1. Nazwa - opis tekstowy użytkownika ( swobodny )
  2. Rodzaj backup - VHD czyli dysk maszyny wirtualnej lub system state ??
  3. Jaką kopię chcesz wykonać ?
    • Dane lokalne - wskazanie folderów z dysków lokalnych
    • Outlook - wskazanie pliku z bazą danych
    • Kopia zaawansowana - pole Lookup wartość System State, inne bazy danych rozumiem Ale System State to cały system tak ??
  1. Dane do backupu
    • dane krytyczne - jakie dla twórcy są to dane krytyczne ???
    • Dyski - wybieram odpowiednie dyski
  1. Lokalizacja tymczasowa
    • wybieram dysk lokalny do zapisu pliku tymczasowego lub ścieżkę sieciową ( rozumiem że ta partycja nie może być systemową oraz musi być NTFS )


Mój błąd rozumiem że dotyczy wskazania ścieżki dla pliku tymczasowego, którym jest partycja z serwera QNAP. Jeśli na dysku mam dwie partycje ale partycja D jest zbyt mała ( 20MB ) a nie mogę wskazać systemowej ani partycji innej niż NTFS co mi pozostaje ??? Muszę dodać dysk z partycją NTFS.
A co by się stało jakbym wskazał tą partycję 20MB ??
Dodatkowo mam pytanie. Ponieważ licencja na 3 stanowiska, która udostępniana jest bezpłatnie trwa jedynie przez rok.
Czy co roku bezpłatnie licencja będzie odnawiana ?? Jeśli tak jak można to wykonać ??
 
@mariuszsal, niestety aby stwierdzić dokładną przycznę błędu potrzebujemy logów aplikacji. Proszę o ich przesłanie zgodnie z instrukcją zawrtą w poście: Download - Xopero - Private Cloud Backup | QNAP Polska - Oficjalne forum wsparcia technicznego QNAP Club

@spietrza, przyczyną błędu backupu VHD na Pańskim komputerze jest fakt, że jedna ze wskazanych do backupu partycji posiada system plików ReFS, który nie jest wspierany przez wspomniane w poprzednim poście narzędzie Kopia zapasowa systemu Windows. Nieprawidłowość w zachowaniu aplikacji polega na tym, że nie powinna ona wylistować partycji z niewspieranym systemem plików, co zostanie poprawione.

Jednocześnie chciałem prosić o zgłaszanie błędów za pośrednictwem portalu wsparcia technicznego, który dostępny jest pod adresem: Xopero Backup. Umożliwi to nam lepszą organizację Państwa zgłoszeń i jednocześnie zachowamy porządek w temacie na forum.

@spietrza, wszelkie informacje związane z konfiguracją backupu VHD oraz opisami poszczególnych pól znajdziesz pod adresem: Backup SystemState – Opero

Mój błąd rozumiem że dotyczy wskazania ścieżki dla pliku tymczasowego, którym jest partycja z serwera QNAP. Jeśli na dysku mam dwie partycje ale partycja D jest zbyt mała ( 20MB ) a nie mogę wskazać systemowej ani partycji innej niż NTFS co mi pozostaje ??? Muszę dodać dysk z partycją NTFS.
A co by się stało jakbym wskazał tą partycję 20MB ??
Podczas tworzenia backupu VHD przygotowywany jest obraz dysku, który następnie jest poddawany backupowi. Obraz ten musi być zapisany w lokalizacji tymczasowej i wynika to z istoty wykorzystywanego przez nas narzędzia. Nie ma możliwości byśmy otrzymali na przykład strumień do tego obrazu i od razu słali go jako backup. Należy również zwrócić uwagę na fakt, że wszelkie backupy przed wysyłką poddawane są szyfrowaniu i kompresji, a także mechanizmom obliczającym różnice.

Dodatkowo mam pytanie. Ponieważ licencja na 3 stanowiska, która udostępniana jest bezpłatnie trwa jedynie przez rok.
Czy co roku bezpłatnie licencja będzie odnawiana ?? Jeśli tak jak można to wykonać ??
Po roku wystarczy bezpłatnie odnowić licencję, co odbywa się dokładnie w taki sam sposób jak wygenerowanie nowej licencji.

Pozdrawiam,
Grzegorz Bąk
@spietrza, jeszcze raz przeanalizowaliśmy Pański problem i chciałem przeprosić za wprowadzenie w błąd w poprzednim poście. Narzędzie Kopia zapasowa systemu Windows jak najbardziej wspiera ReFS, natomiast jedna z partycji wskazanych do backupu ma format inny niż NTFS lub ReFS, co jest przyczyną błędu.
 
  • Lubię to
Reakcje: kaktus
Przepraszam że taki męczący jestem ale jako tester/programista a najbardziej konsultant patrzę na to co daje system po instalacji, co z dokumentacją, co z ustawieniami. Nie oceniam a jedynie chce pomóc wykryć wszystkie błędy oraz zoptymalizować działanie niektórych funkcji.

Będzie się działo :) Ale dziękuję za szybkie odpowiedzi na support.
Cały czas nurtuje mnie pytanie. Mam komputer stacjonarny z jedną partycją, w firmie stoi serwer QNAP na którym są katalogi współdzielone do wykonywania kopii. Lokalizacje kopii poprzez Magazyn w Xopero mam wskazany na QNAP ale dysk do tworzenia pliku tymczasowego nie.
I tu jest mój problem. Wskazanie lokalizacji dla utworzenia pliku tymczasowego musi być na partycji NTFS. No a skąd ją wziąć ?? Przecież nie będę tworzył specjalnie partycji na komputerze ( dajny że jest to dysk SSD 512 GB). Co na czas kopii mam podpinać urządzenie zewnętrzne do komputera czy może lepiej dysk zewnętrzny do serwera QNAP ??

Na szczęście jakiś czas temu przeszedł na maszyny Apple ale TimeMachine działa bardzo bardzo prawidłowo z moich QNAP-em.
 
  • Lubię to
Reakcje: kaktus
Przepraszam że taki męczący jestem ale jako tester/programista a najbardziej konsultant patrzę na to co daje system po instalacji, co z dokumentacją, co z ustawieniami. Nie oceniam a jedynie chce pomóc wykryć wszystkie błędy oraz zoptymalizować działanie niektórych funkcji.
Bardzo cenimy taką postawę i w imieniu całego zespołu Xopero chcę Panu podziękować za pomoc w rozwoju naszego produktu.

Cały czas nurtuje mnie pytanie. Mam komputer stacjonarny z jedną partycją, w firmie stoi serwer QNAP na którym są katalogi współdzielone do wykonywania kopii. Lokalizacje kopii poprzez Magazyn w Xopero mam wskazany na QNAP ale dysk do tworzenia pliku tymczasowego nie.
I tu jest mój problem. Wskazanie lokalizacji dla utworzenia pliku tymczasowego musi być na partycji NTFS. No a skąd ją wziąć ?? Przecież nie będę tworzył specjalnie partycji na komputerze ( dajny że jest to dysk SSD 512 GB). Co na czas kopii mam podpinać urządzenie zewnętrzne do komputera czy może lepiej dysk zewnętrzny do serwera QNAP ??
Niestety, ograniczenia te wynikają z wykorzystywanych przez nas funkcji systemu Windows. Rozważamy zmianę sposobu realizacji backupów VHD oraz System State, dla których potrzebujemy wspomnianą lokalizację tymczasową.

Pozdrawiam,
Grzegorz Bąk
@Silas Mariusz, @mariuszsal

Dzień dobry,

zauważyliśmy, że na forumowym shoutbox-ie wywiązała się dyskusja na temat plików getStatus. Przyznajemy się, że pliki te pochodzą z aplikacji Xopero i jednocześnie dziękujemy za Państwa reakcję. Opublikowaliśmy dzisiaj nową wersję paczki, która już nie tworzy wspomnianych plików.

Pozdrawiam,
Grzegorz Bąk
 
  • Lubię to
Reakcje: kaktus
@Silas Mariusz

Dzień dobry,

informację od firmy QNAP w tej sprawie dostaliśmy dopiero wczoraj, kiedy błąd był już poprawiony. Informacje o błędzie, tak jak w poprzednim poście pisałem, znaleźliśmy na forumowym shoutbox-ie, za co jeszcze raz dziękujemy.

Pozdrawiam,
Grzegorz Bąk
 
Czyli ktoś jednak czyta nasz chat i to nawet wyłapuje bugi ;) - a miał być tylko o gołych babach.
Rozumiem, że można instalować Xopero ponownie bez "obawień".
 
  • Wow
Reakcje: kaktus
@mariuszsal oczywiście, można śmiało i bez obaw instalować.

Staramy się być na bieżąco, więc i na czat czasem zerkniemy, aczkolwiek nie możemy wykluczyć, że niektóre kwestie mogą umknąć naszej uwadze. W takich przypadkach prosimy o bezpośredni kontakt, czy to na forum, czy poza nim ;)

Pozdrawiam,
Grzegorz Bąk
 
  • Love
Reakcje: kaktus
Wczoraj podczas rozmowy z Tomkiem z firmy Roleski nawinął się temat Xopero i narzekania.... nie wiem dokładnie nt. jakiej sprawy, ale kiedy padło hasło, że macie deduplikację, to krzyknąłem "coooo?". Fakt chwalicie się tym.
upload_2015-10-14_4-39-13.png


Ale to co Wy nazywanie deduplikacja to zwyczajna bzdura marketingowa pewnie ukryta pod postacią hardlinków do powtarzających się plików.
Wikipedia napisał:
Eliminacja identycznych duplikatów (ang. single-instance storage) – jeden z rodzajów deduplikacji. Technologia polegająca na eliminacji plików będących identycznymi kopiami pliku uprzednio zapisanego.

Była to pierwsza metoda globalnej kompresji oparta na algorytmie hashowym – jeśli hashe dwóch plików są takie same, pliki są traktowane jako identyczne, nawet jeśli mają inne nazwy, czy daty modyfikacji. Metoda ta była szczególnie przydatna w przypadku eliminacji duplikatów w postaci załączników rozsyłanych pocztą elektroniczną lub plików systemowych rezydujących na komputerach spiętych w sieć.

Dużą wadą tego rozwiązania jest fakt, iż jeśli plik zostanie w jakikolwiek sposób zmodyfikowany (wystarczy zmiana pojedynczego bajtu), musi on zostać w całości zapisany na nowo.

Terminem deduplikacji nazywa się proces eliminowania powtarzających się bloków tych samych danych.

Scenariusz:
Firma: 100 stanowisk komputerowych. Każdy z pracowników przesyła sobie załączniki Outlookiem, które mają po kilkadziesiąt megabajtów. Czasem latają z jednego Outlooka - pliku .pst do drugiego, trzeciego, czwartego i tak kilka jeszcze razy. U każdego plik Outlooka .pst - jako kontener programu pocztowego rośnie w siłe.

Administrator teraz wykonuje backup tych 20 plików .pst - każdy z nich waży czasem od ~3GB do 20GB * 100 stanowisk ~= 1TB samej poczty. Z czego powtarzających się danych wew. nich potrafi być 30-40%. Deduplikacja, to jak wspomniałem proces eliminowania powtarzających się bloków i do tego potrzeba potężnych zasobów sprzętowych - mocy obliczeniowej, a nie hardlinkowania plików.

Czy nie nadużywacie tego terminu?

Wikipedia napisał:
Deduplikacja – eliminowanie powtarzających się części w zbiorze danych. Jest to proces stosowany przy okazji tworzenia kopii zapasowych danych (tzw. backup). Celem procesu deduplikacji jest ograniczanie ilości miejsca potrzebnego do przechowywania kopii zapasowych.

Obecnie wyróżnia się 4 podstawowe metody przeprowadzania procesu deduplikacji:

deduplikacja blokiem o stałej wielkości (ang. fixed-block deduplication)
Dzieli pliki na bloki, czyli sekwencje bajtów o stałej wielkości (typowo między 4 kB a 64 kB).

Nie porównuje ona hashów całych plików, jak w przypadku eliminacji identycznych duplikatów (z ang. Single-Instance Storage), lecz tworzy hash dla każdego bloku z osobna. Daje to wymierne korzyści, gdy duże pliki rosną przez dodawanie do nich nowych danych, lub kiedy długie sekwencje bajtów są modyfikowane między zadaniami backupowymi.

Przykładem danych, które rosną w sposób umożliwiający deduplikację blokiem o stałej wielkości są pliki poczty elektronicznej (np. MS Outlook Express) oraz niektóre rodzaje baz danych.

Minusem tego rodzaju deduplikacji jest niemożność rozpoznania kopii sekwencji bajtów, gdy dane zostają zmodyfikowane w miejscu innym niż na końcu – jedynie dopisanie nowych rekordów danych w miejscu, gdzie uprzednio zapisany plik się kończy umożliwia efektywne działanie deduplikacji fixed-block.


deduplikacja blokiem o zmiennej wartości (ang.variable-block deduplication)
Deduplikacja, która ustala „w locie” wielkość bloku porównującego, na którego podstawie analizowane jest podobieństwo plików. Dzięki temu ten rodzajdeduplikacji jest w stanie rozpoznać zmiany nie tylko dodane na końcu pliku (jak to ma miejsce w deduplikacji blokiem o stałej wielkości), ale też te dokonane na jego początku, bądź w środku.

Przykładowo, jeśli dane są modyfikowane wewnątrz pliku (pomiędzy poszczególnymi blokami), wielkość bloku zmienia się wraz ze zmianą zawartości, co umożliwia zapis jedynie nowo dodanych danych i referencję do następujących po nich danych uprzednio zapisanych.

Mimo większej efektywności pod względem osiąganego współczynnika kompresji, deduplikacja variable-block wymaga znacznie bardziej żmudnego przetwarzania danych niż fixed-block. Jest to o tyle problematyczne, iż w przypadku tego rodzaju globalnej kompresji nie ma możliwości prostej kontroli nad wielkością bloku. Co prawda średnie wielkości bloków mogą zostać predefiniowane, ale nie zmienia to faktu, iż pozostałe bloki mogą mieć rozmiar od pojedynczego bajtu aż do wielkości całego pliku. W rezultacie proces eliminacji duplikatów jest wolny.

Ogólną efektywność deduplikacji blokiem o zmiennej wielkości pogarszają także przypadki skrajnych wielkości bloków. Referencje bloków zbyt małych nie zajmują wymiernie mniej miejsca od duplikatów tych sekwencji. Z kolei rozmiar bloków zbyt dużych ogranicza użyteczność deduplikacji do poziomu eliminacji identycznych duplikatów (ang. Single-Instance Storage).


deduplikacja progresywna (ang.progressive deduplication) Technologia wykorzystająca metodę deduplikacji blokiem o stałej wielkości (ang. fixed-block) i zmiennej wartości (variable-block).

Szybkością dorównuje technologii typu fixed-block wykorzystując bloki o stałej wielkości, jeżeli tylko jest to możliwe. Pozwalają one na bardzo praktyczne rozpoznawanie typu pliku, z jakim mechanizm deduplikacji ma do czynienia (np. plik .ppt), co pozwala na jeszcze większe oszczędności czasowe. Możliwościami deduplikacja progresywna dorównuje tej o zmiennej wielkości bloku, rozpoznając wszelkie zmiany dokonane w dowolnym miejscu pliku, co wyraźnie zwiększa współczynnik kompresji.

Przewagą deduplikacji progresywnej nad metodą variable-block jest możliwość rozpoznawania typu pliku z jakim proces ma do czynienia, oraz przetwarzaniu uprzednio zapisanych części danych z prędkością osiąganą przez deduplikację fixed-block.

Progresywna deduplikacja różni się od innych rodzajów sposobem dostosowywania wielkości bloków skanujących plik w poszukiwaniu duplikatów. Na początku plik jest dzielony na bloki identycznych rozmiarów, tak jak w przypadku metodyfixed-block. Jednak pozwala ona blokom na nachodzenie na siebie, dzięki czemu granica bloku może wystąpić w dowolnym miejscu. Ma to znaczenie w przypadku zmian dokonanych wewnątrz pliku. Modyfikacje tego typu powodują, iż uprzednio zapisane, znane już bloki ulegają przesunięciu w dół sekwencji pliku, wskutek czego nie byłyby rozpoznane przez tradycyjne typy deduplikacji. Są natomiast rozpoznawane przez deduplikację progresywną.

Deduplikacja progresywna ustala optymalną wielkość bloku dla konkretnego typu pliku. W zależności od deduplikowanego pliku, rozmiar bloku to 1 kB, 2 kB, 4 kB... 32 kB. Dzięki tej możliwości osiągalne są lepsze współczynniki kompresji.

W tej technologii wykorzystano okienko skanujące plik w poszukiwaniu zduplikowanych bloków. Jest to metoda na tyle efektywna, że wykrywa duplikaty w każdym bajcie pliku, jednocześnie nie wymaga ogromnych mocy obliczeniowych. Jest to możliwe dzięki wykorzystaniu dwóch typów algorytmów haszujących, którymi dysponuje branża IT: lekkiego i ciężkiego. Szybki i lekki algorytm haszujący rozpoznaje możliwe duplikaty, które następnie są wnikliwie badane algorytmem dokładnym. Z uwagi na fakt, iż ponad 99% możliwych duplikatów okazuje się być dokładnymi kopiami, progresywne skanowanie jest bardzo efektywne przy rozsądnym obciążeniu zasobów systemowych.
 
@Silas Mariusz
Dzień dobry,

prawdą jest, że posiadamy deduplikację i nigdy nie kryliśmy się również ze sposobem jej działania, wystarczyło zapytać. Przytoczona przez Pana Wikipedia, jako jedną z metod deduplikacji wymienia eliminację identycznych duplikatów, która jest zaimplementowana w naszych aplikacjach. Przechodząc bardziej do szczegółów procesu deduplikacji, według definicji jest to:
Deduplikacja – eliminowanie powtarzających się części w zbiorze danych.
W naszym przypadku zbiorem danych są pliki poddawane backupowi z jednego hosta przypisanego do konta użytkownika, powtarzającą się częścią natomiast jest sam plik. Z tego wynika, że ten sam plik nie zostanie dwukrotnie przesłany.

Wadą zastosowanej przez nas metody deduplikacji, według Wikipedii jest:
Dużą wadą tego rozwiązania jest fakt, iż jeśli plik zostanie w jakikolwiek sposób zmodyfikowany (wystarczy zmiana pojedynczego bajtu), musi on zostać w całości zapisany na nowo.
Xopero korzysta z mechanizmów delty, dzięki czemu w przypadku modyfikacji pliku przesyłane są jedynie zmodyfikowane części tego pliku, a nie cały plik ponownie.

Nie jesteśmy w stanie zrealizować globalnej, czy też blokowej deduplikacji, ze względu na fakt szyfrowania danych osobny kluczem dla każdego z użytkowników oraz wykorzystanie mechanizmów delty, gdzie plik nie jest fizycznie dzielony przez nas na bloki.

Xopero jest produktem stale przez nas rozwijanym, zatem niewykluczone, że w przyszłości deduplikacja zostanie zoptymalizowana. Na chwilę obecną pracujemy nad wprowadzeniem backupów blokowych, a następnie nad zmianą sposobu przechowywania danych użytkowników, co jest dobrym krokiem w kierunku globalnej deduplikacji.

Czekamy również, aż QNAP wprowadzi deduplikację danych, co w przypadku wyłączenia szyfrowania, również będzie obejmowało pliki poddane backupowi przez Xopero.

Pozdrawiam,
Grzegorz Bąk
 
Zupełnie się nie zgadzam. To tak jak reklama sieci komórkowej - rozmowy za 0zł w abonamencie za 100zł. Eliminowanie powtarzających się plików (czyt. tworzenie skrótów) nie ma nic wspólnego z hasłem dedup.

Czekamy również, aż QNAP wprowadzi deduplikację danych, co w przypadku wyłączenia szyfrowania, również będzie obejmowało pliki poddane backupowi przez Xopero.
_@v
... do tego trzeba najmocniejszych CPU i szybkich dysków.
 
Zupełnie się nie zgadzam. To tak jak reklama sieci komórkowej - rozmowy za 0zł w abonamencie za 100zł. Eliminowanie powtarzających się plików (czyt. tworzenie skrótów) nie ma nic wspólnego z hasłem dedup.
W naszym przypadku nie mamy nic do ukrycia i mówimy wprost jak działa ten mechanizm w aplikacjach Xopero, co jest zgodne z przytoczonymi przez Pana definicjami związanymi z deduplikacją, które obaj przytoczyliśmy w swoich poprzednich postach. Mamy świadomość, że deduplikacja na poziomie blokowym byłaby znacznie bardziej optymalna, lecz ze względu na architekturę naszego rozwiązania nie jesteśmy w stanie jej realizować.

... do tego trzeba najmocniejszych CPU i szybkich dysków.
W tym przypadku zostaje nam czekać na oficjalną specyfikację QNAPa.

Pozdrawiam,
Grzegorz Bąk
 
@Silas Mariusz
Mechanizm deduplikacji zaimplementowany w naszym rozwiązaniu wpisuje się w definicję deduplikacji, co przedstawiłem w poprzednim poście. Mamy zarówno zbiór danych, jak i powtarzające się elementy, które są z tego zbioru wykluczane. Dla każdego przesyłanego przez nas pliku tworzymy w bazie danych wpis, który zawiera m.in. informacje o nazwie, czy rozmiarze pliku, a także umiejscowienie jego wersji na urządzeniu QNAP. Na etapie przygotowania danych do wysyłki obliczamy skróty poszczególnych plików i porównujemy je z istniejącymi w bazie, jeśli znajdziemy taki sam skrót, to aplikacja nie przesyła go dalej, tworząc jedynie odpowiedni wpis w bazie danych. Cały ten mechanizm idealnie wpisuje się w ideę eliminacji identycznych duplikatów.

Nie są to dowiązania twarde, gdyż jest to całkiem inny mechanizm, związany z systemem plików. Anglojęzyczna Wikiepdia nieco lepiej opisuje to zagdninie: Hard link - Wikipedia, the free encyclopedia

Pozdrawiam,
Grzegorz Bąk
 
  • Lubię to
Reakcje: kaktus
Jak wygląda rozgłaszany przez Was feature przenoszenia maszyn fizycznych do stacji wirtualizacji przez Xopero?
Czy Xopero konwertuje maszyny pracujące pod UEFI aby uruchamiać je w maszynach wirtualnych?
Jakie oprogramowanie oraz system jest potrzebny, aby zreplikować/przywrócić maszyne wirtualną na host fizyczny? Czy może jest to realizowane przez TFTP? Jeśli tak, to ile trwa proces uruchamiania loadera pozwalający zainstalować maszynę wirtualną?
 
  • Lubię to
Reakcje: 1 osoba

Użytkownicy znaleźli tą stronę używając tych słów:

  1. duplikaty plików
  2. duplikaty