Już jutro (5 lipca 2018) mogą zacząć się złe zmiany w europejskim internecie. Za czasów ACTA społeczności internetowej udało się wygrać. Teraz także jest to możliwe dlatego na początek zapoznajcie się z oświadczeniem wydanym przez Wikipedię oraz materiałami jakie zebrała:
dowolny adblocker, ja używam uBlock Origin (Firefox, Chrome, Opera, Edge), który już z podstawowym zestawem filtrów zapewni nam dość dużą ochronę przed zagrożeniami i śledzeniem w sieci,
Privacy Badger od Electronic Frontier Foundation (Firefox, Chrome, Opera), dodatek ten uczy się co i jak nas szpieguje i z czasem zaczyna takie strony odłączać :),
Ghostery (najlepiej zamiennie z Privacy Badgerem) (Firefox, Chrome, Opera), dodatek ten skupia się na blokowaniu śledzenia
i na końcu absolutny mus dla każdego z Firefoxem, Facebook Container (Firefox) od samej Mozilli, który izoluje Facebooka od reszty stron w naszej przeglądarce 🙂
Usługa wyszła już z fazy beta, nadal jest w fazie beta jednak działa naprawdę dobrze i otrzymanie certyfikatu przebiega bez żadnych problemów.
Aby z niej skorzystać trzeba pobrać klienta i postąpić zgodnie z jego instrukcją. Niestety aktualnie nie ma paczki na Debiana Jessie więc postanowiłem użyć jednego z alternatywnych klientów, który jest skryptem w bashu i jest prosty jak „konstrukcja cepa” – https://github.com/Neilpang/acme.sh
Używając powyższego skryptu można wszystko zrobić dosłownie w 5 minut :). Wspomnę tylko, że skrypt ma instalator (pkt. 1 lub 2 ze strony na githubie) i inne ułatwiacze ale ja lubię mieć kontrolę nad tym co się dzieje więc z nich nie korzystałem.
Na wstępie ustalmy do celów poradnika, że wszystko będziemy wykonywać z root’a (oczywiście nie trzeba ale zakładamy tak w celu uproszczenia) oraz:
/root/.acme.sh/acme.sh – miejsce składowania skryptów klienta
mojastrona.pl – strona, dla której chcemy uzyskać certyfikat
/mnt/www/mojastrona.pl – katalog na dysku naszej strony
/etc/apache2 – lokalizacja apache wraz z plikami konfiguracji
Pierwszym naszym krokiem powinno być pobranie wymaganych plików klienta. W tym celu przechodzimy (zakładamy w razie potrzeby) do katalogu
/root/.acme.sh/acme.sh
i wykonujemy komendę
git clone https://github.com/Neilpang/acme.sh
Jeśli nie mamy gita to go instalujemy lub wchodzimy na stronę projektu, ręcznie pobieramy pliki i je wypakowujemy.
Następnym krokiem (dla wygody tylko) jest zrobienie symlinka z katalogu gdzie będą nasze certyfikaty do katalogu apache. Wykonujemy to komendą
ln -s /root/.acme.sh/ /etc/apache2/letsencrypt
Po wykonaniu powyższych kroków oraz upewnieniu się, że nasza strona jest dostępna z internetu należy pobrać certyfikat
Jeśli nasza strona była dostępna z internetu to powinniśmy otrzymać certyfikat, a potrzebne pliki zapisane zostaną w katalogu
/root/.acme.sh/mojastrona.pl/
Pozostało nam już tylko poprawić konfigurację apache aby wskazać nasze certyfikaty (dobry poradnik jak skonfigurować SSL w apache znajduje się tu – krok 3 i 4). W tym celu w pliku konfiguracyjnym należy wskazać tak aby opcja
SSLCACertificateFile kierowała do ca.cer
SSLCertificateFile kierowała do pliku .cer
SSLCertificateKeyFile kierowała do pliku .key
O tego momentu strona powinna zgłaszać się z certyfikatem od Let’s Encrypt.
Dodatkowo warto ustawić automatyczne odnawianie certyfikatów gdyż mają one ważność 90 dni.
W tym celu najprościej stworzyć wykonywalny skrypt, np.
acme.sh_cron
z zawartości np.
#!/bin/sh
/root/.acme.sh/acme.sh/acme.sh cron >> /var/log/le-renew.log
service apache2 reload
i przenieść go do
/etc/cron.daily
Jak widać proces nie jest przesadnie skomplikowany i po wstępnej konfiguracji raczej banalny. Docelowo prawdopodobnie i tak wybiorę oficjalnego klienta ale pierw musi w repozytoriach Debiana Jessie zostać udostępniona oficjalna paczka.
Powodzenia w szyfrowaniu! 🙂
EDIT:
Skrypt zmienił nazwę więc powyższy opis został odpowiednio dostosowany.
Za kilka dni (dokładnie 03.12.2015) rusza otwarta beta ciekawego projektu Let’s Encrypt. Pozwoli on całkowicie za darmo otrzymać każdemu zainteresowanemu darmowy i co najważniejsze uważany za zaufany przez przeglądarki certyfikat (CA).
Mam nadzieje, że pomoże on podnieść bezpieczeństwo internetu i znacząco przyczyni się do popularyzacji stron działających po https gdyż zniknie podstawowy argument „ale to kosztuje”.
Jakiś czas temu zostałem posiadaczem mini komputera Banana Pi jako mocniejszej i lepiej wyposażonej wersji Raspberry Pi.
Za przemawiało:
CPU: 2x1GHz
RAM: 1GB DDR3
Gigabit Ethernet
port SATA (dla mnie to wisienka na torcie)
Całość postanowiłem wykorzystać jako działający na Debianie (dystrybucja Bananian) przez 24/7 serwer:
multimediów (minidlna – aby nie włączać innego komputera za każdym razem jak najdzie mnie ochota posłuchać muzyki czy coś zobaczyć na TV)
ssh (aby można było tym headless serverem zarządzać)
vpn (openvpn – aby bez obaw móc korzystać z publicznych sieci WiFi oraz mieć łatwy dostęp do domowej sieci lokalnej)
vnc (tightvnc -jakby trzeba było coś uruchomić w trybie graficznym)
www (LAMP – strona, którą czytasz na nim się znajduje + parę innych na własne potrzeby)
backupu (tu akurat bez oprogramowania i tylko kilka skryptów bashowych odpalanych z crona)
downloadu plików (aria2 i curl – jeśli starczy proste pobieranie z konsoli lub jDownloader w trybie graficznym)
[w przyszłości] monitoringu (jak tylko uda się złapać w rozsądnej cenie kamerkę z trybem nocnym co działa pod Linuxem)
Całość działa bardzo szybko, sprawnie i co najważniejsze bardzo stabilnie. Jeśli chodzi o zużycie prądu to wydaje mi się, że nawet spadło gdyż nie potrzebuję już uruchamiać starego Core 2 Duo aby posłuchać muzyki czy zobaczyć coś na TV (pewno godzina jego chodzenia to z dzień pracy Banana Pi).
Banana Pi w obudowie oraz podłączonym dyskiem SATA i starym pendrive 4GB na backupy.Banana Pi od strony konsoli administratora
Jeśli, ktoś zastanawia się czy warto i ma podstawowe umiejętności zarządzania Linuxem to moim zdaniem warto gdyż do Debiania materiałów jest co niemiara i wszystko można wyczytać.
Dnia 27 lipca o godzinie 18:00 w Krajinie Piva w Toruniu odbędzie się pierwsze toruńskie spotkanie PHPersów, które mam okazję współorganizować.
Miejmy nadzieję, że frekwencja dopisze i zrobimy jeszcze wiele takich spotkań 🙂
Jakiś czas temu zacząłem się zastanawiać jak wiele stron i jak często udostępnia nasze dane do Facebooka przez różnego rodzaju komponenty typu przycisk „lubie to”, komentarze, zestawienie ludzi co lubią stronę etc.
które powinny wyciąć wszystko co jest od Facebooka ale nie jest na stronie facebook.com
Efekt tego po tygodniu używania był taki iż zablokowałem ponad 13 tysięcy wywołań.
Jeśli ktoś chce także trochę się odciąć od wścibskiego FB to może dodać powyższe reguły do AdBlocka.
W skrócie jeśli nasza strona internetowa używa Ciasteczek to powinniśmy informować nowego użytkownika o tym fakcie i pozwolić mu wyrazić zgodę lub sprzeciw za pomocą ustawień przeglądarki – dlatego też w owej informacji najlepiej jakby pojawił się opis jak taki mechanizm może on wyłączyć.
Niedawno nabyłem TV z obsługa DLNA i postanowiłem postawić sobie serwer, który mógłby serwować mi video, audio i obrazy do niego. Po długich bojach pod Windowsem doszedłem do wniosku, że to jakaś parodia (100% procka, ładowanie zawartości katalogu trwające z minutę etc). Powiedziałem sobie trudno, będę zgrywać z laptopa na serwer i zabrałem się do konfiguracji na linuxie (w moim wypadku ubuntu).
Jakież było moje zdziwienie gdy po 10 minutach wszystko działało jak należy i skoki procka były do max 2-3%.
Oto co zrobiłem:
i to już praktycznie koniec, serwer sam się dodał to startu podczas boota i jedyne co musiałem zmienić to ścieżki z mediami.
W pliku /etc/minidlna.conf jest kawałek, który brzmi tak
# set this to the directory you want scanned.
# * if have multiple directories, you can have multiple media_dir= lines
# * if you want to restrict a media_dir to a specific content type, you
# can prepend the type, followed by a comma, to the directory:
# + „A” for audio (eg. media_dir=A,/home/jmaggard/Music)
# + „V” for video (eg. media_dir=V,/home/jmaggard/Videos)
# + „P” for images (eg. media_dir=P,/home/jmaggard/Pictures)
Po nim ustawiłem taką linie
media_dir=/mnt
Mówi on, że serwer ma szukać wideo, audio i obrazów w katalogu /mnt
I to już koniec. Czasem trzeba ubić serwer i uruchomić z opcja -R
minidlna -R
co spowoduje przeskanowanie wszystkich ustawionych katalogów w poszukiwaniu mediów i tyle – max 10 minut ustawiania i filmy + napisy srt chodzą mi na TV wyśmienicie.
Mam nadzieję, że ktoś także skorzysta z tego sposobu :). Oczywiście jak zawsze w ramach możliwości postaram się pomóc w razie problemów.
edit:
W aktualnych wersjach Ubuntu minidlna jest normalnie dostępne w repozytoriach więc można np. z konsoli wpisać