Instruktaż/Tutorial Unlimited Cloud Drive for Plex/Kodi/Emby content with QNAP

Silas Mariusz

rm -rf /
Help us, GOD!
5 Kwiecień 2008
10 318
33
2 634
153
40
Nowy Sącz
forum.qnap.net.pl
QNAP
TS-x77
Ethernet
1 GbE
upload_2019-8-12_11-59-28.png



Scenario 1) Attach to existing team drive and share content with other users already.

Pros:
- Share content with other users

How-to get access?
Just reply to this thread, type your email address bellow to get invite you into team drive account.



Scenario 2) Create own private team drive.

Pros:
- Content is not share with other users.

How-to get this?
Buy Unlimited Google Drive Share Folder for $1 USD on Ebay
Link -> UNLIMITED GOOGLE Team DRIVE FOR YOUR EXISTING ACCOUNT | eBay


How-to share your Rtorrent-Pro downloads with Unlimited Team Drive?
  1. Install HBS 3 (Hybrid Backup Station 3) on your QNAP NAS

  2. Create new Sync -> One-way Sync Job

  3. Select destination cloud account: Google Drive
    upload_2019-8-12_11-51-35.png


  4. In destination select your account name directory:
    upload_2019-8-12_11-53-58.png


  5. As the source select Download|Rdownload/rtorrent/medialibrary directory:
    upload_2019-8-12_11-56-14.png


  6. In conflict policy set: Replace

  7. In the next step - Job schedule, set Real-time synchronization policy

  8. Start sync to share your media

  9. Attach team drive to Plex/Emby/Kodi using external plugins.
 
Kup nowe konto przypnij do tego samego maila, przenieś dane między dyskami, zmapuj znów i będzie działać. Mam wrażenie że to nie wina Chinoli ale coś z dyskiem Google albo samym Q. Pliki są cały czas na dysku. Ja mam dane nie szyfrowane. Przerobiliśmy już to z @Damian I działa.

Wysłane z mojego XQ-AT51 przy użyciu Tapatalka
 
@Damian mam tak samo. Moge zapytać z jakiej domeny masz team drive moze mam z tej samej bo jakoś w tym samym czasie przestało mi działać...
Hej, pierwsze konto było z ebaya - chyba jakaś uczelnia. I tak jak @_Floyd pisze nie wiadomo co się stało... U mnie dane były szyfrowane i mimo, że plex ich nie widział były na dysku. Kupiłem konto na ali i przeniosłem dane z pomocą @_Floyd (dziękuje jeszcze raz) bezpośrednio w gdrive. Dodatkowo aktualizacja wszystkiego, restart nasa i odświeżenie kolekcji w plex. I o dziwo zaczęło działać bez utraty czegokolwiek. Teraz w google api nie widzę błędów:
upload_2021-3-22_21-9-30.png
 
Tak jest limit, chyba trochę większy niż 500gb. Te dane były już na dysku a zostały tylko przeniesione na inny. Wygląda, że w tym przypadku limit nie jest brany pod uwagę.
 
Ja mam dane nie szyfrowane.
Masz dane nieszyfrowane?! O to nowosc.
Szyfrowane dane kazde innym kluczem = google traci na tym samym pliku wideo tyle ile jest jego kopii.
Nieszyfrowane = CRC i uzywaja deduplikacji i oszczedzaja dane.
Czyzby google poszlo po rozum do glowy?

Panowie musze Wam pogratulować!
 
Kup nowe konto przypnij do tego samego maila, przenieś dane między dyskami, zmapuj znów i będzie działać. Mam wrażenie że to nie wina Chinoli ale coś z dyskiem Google albo samym Q. Pliki są cały czas na dysku. Ja mam dane nie szyfrowane. Przerobiliśmy już to z @Damian I działa.

Wysłane z mojego XQ-AT51 przy użyciu Tapatalka
W jaki sposób przenieść dane między dyskami żeby nie zahaczyć o limit?
 
@rachffus nie ma limitu przenoszenia miedzy dyskami, a przynajmniej u mnie zadziałało:
upload_2021-3-23_12-19-38.png


Wskazałem nowy dysk, zaczekałem kilka godzin i było wszystko na nowym dysku.
@Damian dasz mi swoje ustawienia do rClone. Od jakiegoś czasu mam problem i mam strasznie wolne pobieranie z DG. Tak wolno ze jestem ledwo wstanie obejrzeć coś w FHD. Nie mówiąc o 4K.
 
dasz mi swoje ustawienia do rClone
Chyba nic nie zmieniałem do dłuższego czasu:
Kod:
cat rclone.sh
#!/bin/bash
# remove old log file
if [ -f /share/CACHEDEV2_DATA/Rdownload/logs/rclone.log ]; then
        rm /share/CACHEDEV2_DATA/Rdownload/logs/rclone.log
fi
/usr/bin/rclone mount \
        --config=/share/CACHEDEV1_DATA/.qpkg/RClone/rclone.conf \
        --allow-other \
        --dir-cache-time 168h \
        --cache-chunk-path /share/CACHEDEV1_DATA/.rclone/chunk \
        --cache-db-path /share/CACHEDEV1_DATA/.rclone/db \
        --cache-tmp-upload-path /share/CACHEDEV1_DATA/.rclone/upload/ \
        --log-level INFO \
        --log-file=/share/CACHEDEV2_DATA/Rdownload/logs/rclone.log \
        --buffer-size 256M \
        --drive-chunk-size 512M \
        --vfs-read-chunk-size 128M \
        --vfs-read-chunk-size-limit off \
        --vfs-cache-max-size 256G \
        --vfs-cache-mode writes \
        --cache-dir /share/CACHEDEV1_DATA/.rclone/rclone \
 union:/ /share/CACHEDEV2_DATA/UGdrive &
 
A powiem Ci ze już trochę mi się nie chce. Wszystko było dobrze do aktualizacji. Albo znów coś się zmieniło. Widze ze trochę osób ma problemy z rClone i słabymi transferami. Chciałem spróbować z PlexDrive ale tam jeszcze nie umiem napisać formuły do montowania dysku. Zobaczymy.
 
Chyba nic nie zmieniałem do dłuższego czasu:
Kod:
cat rclone.sh
#!/bin/bash
# remove old log file
if [ -f /share/CACHEDEV2_DATA/Rdownload/logs/rclone.log ]; then
        rm /share/CACHEDEV2_DATA/Rdownload/logs/rclone.log
fi
/usr/bin/rclone mount \
        --config=/share/CACHEDEV1_DATA/.qpkg/RClone/rclone.conf \
        --allow-other \
        --dir-cache-time 168h \
        --cache-chunk-path /share/CACHEDEV1_DATA/.rclone/chunk \
        --cache-db-path /share/CACHEDEV1_DATA/.rclone/db \
        --cache-tmp-upload-path /share/CACHEDEV1_DATA/.rclone/upload/ \
        --log-level INFO \
        --log-file=/share/CACHEDEV2_DATA/Rdownload/logs/rclone.log \
        --buffer-size 256M \
        --drive-chunk-size 512M \
        --vfs-read-chunk-size 128M \
        --vfs-read-chunk-size-limit off \
        --vfs-cache-max-size 256G \
        --vfs-cache-mode writes \
        --cache-dir /share/CACHEDEV1_DATA/.rclone/rclone \
 union:/ /share/CACHEDEV2_DATA/UGdrive &
Wracam do tematu. Mam rurę od Orange i wszystko działa. Postanowiłem sobie skorzystać z Twojego montowania. Mam tylko pytanie, dlaczego co minutę w logu zapisuje się taki log:
2022/01/21 08:38:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:39:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:40:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:41:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:42:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:43:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
2022/01/21 08:44:15 INFO : vfs cache: cleaned: objects 0 (was 0) in use 0, to upload 0, uploading 0, total size 0 (was 0)
 
Wracam do tematu. Mam rurę od Orange i wszystko działa. Postanowiłem sobie skorzystać z Twojego montowania. Mam tylko pytanie, dlaczego co minutę w logu zapisuje się taki log:
Nie sprawdzałem co się loguje dokładnie w tym pliku (może u mnie też tak jest - muszę sprawdzić). Pewnie wystarczy zmienić log-level na jakiś inny np. NOTICE. Coś zmienili w RClone i mają kończyć wsparcie dla cache. Dlatego zacząłem testować inną konfigurację: Pomoc - Rclone - problem z logowaniem
 
1684918111988.png

1684918174430.png

Niestety google wziął się za Unlimited na GSuite. Szukam alternatywy, może ktoś ma coś do polecenia.
Jednocześnie widziałem ofetę unlimited na dropbox, ale żeby cena wyszła taka jak na GSuite potrzebuje jeszcze 2 osób. :)
 

Użytkownicy znaleźli tą stronę używając tych słów:

  1. rclone
  2. emby
  3. unlimited
  4. sprawdzanie ścieżki