• Välkommen till ett uppdaterat Klocksnack.se

    Efter ett digert arbete är nu den största uppdateringen av Klocksnack.se någonsin klar att se dagens ljus.
    Forumet kommer nu bli ännu snabbare, mer lättanvänt och framför allt fyllt med nya funktioner.

    Vi har skapat en tråd på diskussionsdelen för feedback och tekniska frågeställningar.

    Tack för att ni är med och skapar Skandinaviens bästa klockforum!

    /Hook & Leben

Den inkluderande tråden om open source!

Ni verkar ha ungefär samma problem. Det går att lösa på några olika sätt.

Alternativ 1:
Mappa portar i containern mot olika portar på hosten. Det är enkelt att göra i Portainer om man redigerar konfigen för den specifika containern under "Manual network port publishing". Men det går att speca om man deployar containern via konsolen eller i docker compose också. Oftast specas det genom host:container (9000:9000).

Alternativ 2 (den coola lösningen).
Då används en reverse proxy som svarar på 443 (HTTPS). Den lyssnar på de namn som angetts, se min post ovan för exemplet gällande portainer.
Jag har 15st containers rullades, de flesta av dem webapplikationer på diverse olika portar. Ofta överlappande.
Men alla publiceras på genom att besöka:
container1.mindomän.se
container2.mindomän.se
container3.mindomän.se
...

Om detta verkar spännande så ta en titt här: https://www.digitalocean.com/commun...e-proxy-for-docker-containers-on-ubuntu-20-04
Ja, något sådant måste vara lösningen för hur vet annars Docker var ett anrop på port 80 ska hamna om det finns flera mottagare? Jag ska kolla ikväll på länken.
 
Ni verkar ha ungefär samma problem. Det går att lösa på några olika sätt.

Alternativ 1:
Mappa portar i containern mot olika portar på hosten. Det är enkelt att göra i Portainer om man redigerar konfigen för den specifika containern under "Manual network port publishing". Men det går att speca om man deployar containern via konsolen eller i docker compose också. Oftast specas det genom host:container (9000:9000).

Alternativ 2 (den coola lösningen).
Då används en reverse proxy som svarar på 443 (HTTPS). Den lyssnar på de namn som angetts, se min post ovan för exemplet gällande portainer.
Jag har 15st containers rullades, de flesta av dem webapplikationer på diverse olika portar. Ofta överlappande.
Men alla publiceras på genom att besöka:
container1.mindomän.se
container2.mindomän.se
container3.mindomän.se
...

Om detta verkar spännande så ta en titt här: https://www.digitalocean.com/commun...e-proxy-for-docker-containers-on-ubuntu-20-04

Det va alternativ 2 jag va ute efter. Ska kolla in den reverse proxyn.
Tack!
 
Det va alternativ 2 jag va ute efter. Ska kolla in den reverse proxyn.
Tack!
Det som kanske är lite klurigt är att ni vill skriva ett namn i webbläsaren, detta namn skall sedan översättas till en ip-adress.
För detta behöver ni någon form av DNS.

DNS gör bara så att ex. vis webbläsaren går mot en viss ip när man skriver ett namn. Portarna styrs inte av DNS.

Om en webbserver/proxy har många siter/namn så kan den använda "host headers" som webbläsaren skickar med, och på det viset vet den vilken site man vill åt.
Därav att man kan ha många siter /namn på samma ip (det kunde man inte förr).

OBS! portar har ingenting med ovanstående att göra. DNS ordnar bara mappning namn -> ip.
Så om man har lagt in "www.hemma.nu" i DNS som pekar mot 192.168.1.10 så hamnar man på den ip:n om man skriver det i webbläsaren.
Har man en site på port 8080 måste man skriva www.hemma.nu:8080.
Eller
Tala om för proxyn/docker på servern etc att port 80 (standard web) skall skickas till port 8080. Då behöver man inte skriva :8080
 
Tänk även på att som standard går webbläsare mot port 80 om man skriver http, och port 443 om man skriver https.
Skriver man https så förväntar sig webbläsaren att trafiken skall krypteras, oavsett port.
 
Liten uppdatering. Installerade Pihole men det blev en krock med port 53 och jag fick börja gräva lite. Till slut hittade jag denna sida


Nu ser det bra ut, port 53 är inte längre upptagen:
johan@husky:~$ netstat -tunlp
(Not all processes could be identified, non-owned process info
will not be shown, you would have to be root to see it all.)
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program
name
tcp 0 0 0.0.0.0:2222 0.0.0.0:* LISTEN -

tcp6 0 0 :::2222 :::* LISTEN -

udp 0 0 192.168.1.11:68 0.0.0.0:* -

udp6 0 0 fe80::2a0:98ff:fe78:546 :::*
Just sayin!

Edit:
Nu läste jag i dokumenten att detta tydligen var helt rätt att göra istället för att installera NetworkManager som många sidor föreslår.
Linux systems which use a GUI often have a network manager running, which uses a dnsmasq instance running on a loopback address such as 127.0.0.1 or 127.0.1.1 to cache DNS requests, and adds this entry to /etc/resolv.conf. The dnsmasq service speeds up DNS look-ups and also provides DHCP services. This configuration does not work within a Docker container which has its own network namespace, because the Docker container resolves loopback addresses such as 127.0.0.1 to itself, and it is very unlikely to be running a DNS server on its own loopback address.


If Docker detects that no DNS server referenced in /etc/resolv.conf is a fully functional DNS server, the following warning occurs and Docker uses the public DNS servers provided by Google at 8.8.8.8 and 8.8.4.4 for DNS resolution.
Just sayin!
 
Senast ändrad:
Liten uppdatering. Installerade Pihole men det blev en krock med port 53 och jag fick börja gräva lite. Till slut hittade jag denna sida


Nu ser det bra ut, port 53 är inte längre upptagen:

Just sayin!

Edit:
Nu läste jag i dokumenten att detta tydligen var helt rätt att göra istället för att installera NetworkManager som många sidor föreslår.

Just sayin!
Tycker att hela systemd har förtagit lite av glädjen med att köra Linux. Istället för små program som är väldigt bra på det dom gör så har man ersatt dom med en jätteblaffa (systemd) som gör massor av saker, och inte alltid jättebra.
Dessutom är det svårare att både förstå, felsöka och tweaka.
 
Jag jobbar fortfarande med HA men innan det ska installeras så har jag börjat organisera om nätverket hemma med ett LAN och två VLAN, ett för gäster och ett för Internet of Things. Det verkar som om det kan vara bra att göra innan man installerar en massa apparater på sitt nätverk hemma. Har ni gjort något liknande? Jag tänkte i alla fall placera HA på LAN och sedan alla apparater på IOT-nätverket som är skilt från övriga nätverk med undantag från IP : PORT till HA. De måste ju kunna snacka. Är detta en acceptabel lösning eller finns det bättre sätt att göra det på? Jag vill inte placera HA i IOT-nätverket eftersom jag inte vill byta wifi varje gång jag ska styra HA.
 
Tycker att hela systemd har förtagit lite av glädjen med att köra Linux. Istället för små program som är väldigt bra på det dom gör så har man ersatt dom med en jätteblaffa (systemd) som gör massor av saker, och inte alltid jättebra.
Dessutom är det svårare att både förstå, felsöka och tweaka.

Spot-on. Avskyr systemd.
T ex : vad är det för fel på runlevels. Bra överblick och skitlätt att konfigurera.
 
Jag jobbar fortfarande med HA men innan det ska installeras så har jag börjat organisera om nätverket hemma med ett LAN och två VLAN, ett för gäster och ett för Internet of Things. Det verkar som om det kan vara bra att göra innan man installerar en massa apparater på sitt nätverk hemma. Har ni gjort något liknande? Jag tänkte i alla fall placera HA på LAN och sedan alla apparater på IOT-nätverket som är skilt från övriga nätverk med undantag från IP : PORT till HA. De måste ju kunna snacka. Är detta en acceptabel lösning eller finns det bättre sätt att göra det på? Jag vill inte placera HA i IOT-nätverket eftersom jag inte vill byta wifi varje gång jag ska styra HA.
Jag brukar göra det med jämna mellanrum för att sedan ta bort det då jag alltid glömmer bort hur jag tänkt när jag satte upp det :)
En tanke som slog mig, har din router/brndvägg och switchar stöd för VLAN?
Annars tycker jag det låter som en jättebra ide.
Dubbelkolla så att allt blir som du vill med tanke på åtkomst mellan näten, du kommer säkert att behöva sätta upp regler i brandväggen.
Har du jobbat med VLAN förut?
 
Spot-on. Avskyr systemd.
T ex : vad är det för fel på runlevels. Bra överblick och skitlätt att konfigurera.
Jag skäms lite, trots att systemd nu funnits i ett par år så har jag fortfarande inte haft viljan att lära mig hur det fungerar, förutom det mest grundläggande förstås.
Selinux och iptables är två andra Linux "features" som jag inte kan speciellt bra, dom är inte så mastiga som systemd, men onödigt komplicerade, vilket gör att
det är svårt att förstå hur den som satt upp det "tänkt från början", och det blir svårt att felsöka.
 
Jag skäms lite, trots att systemd nu funnits i ett par år så har jag fortfarande inte haft viljan att lära mig hur det fungerar, förutom det mest grundläggande förstås.
Selinux och iptables är två andra Linux "features" som jag inte kan speciellt bra, dom är inte så mastiga som systemd, men onödigt komplicerade, vilket gör att
det är svårt att förstå hur den som satt upp det "tänkt från början", och det blir svårt att felsöka.

Håller med om selinux och iptables. Älskar därför gui :)
 
Jag brukar göra det med jämna mellanrum för att sedan ta bort det då jag alltid glömmer bort hur jag tänkt när jag satte upp det :)
En tanke som slog mig, har din router/brndvägg och switchar stöd för VLAN?
Annars tycker jag det låter som en jättebra ide.
Dubbelkolla så att allt blir som du vill med tanke på åtkomst mellan näten, du kommer säkert att behöva sätta upp regler i brandväggen.
Har du jobbat med VLAN förut?
Jag lär mig en massa nytt nuförtiden. Aldrig jobbat med Docker eller VLAN tidigare. Jag kör PF Sense som lätt hanterar VLAN och alla FW regler samt Unifi som kan filtrera VLAN. Det verkar fungera för tillfället även om jag har satt upp det från Norge. Alla nätverk är DHCP och LAN-1 kan snacka med allt men LAN-2, VLAN-Guest och VLAN-IOT är isolerade var för sig. Dessutom så blir alla okända macadresser isolerade på LAN-1 så jag hoppas jag har skruvat åt ordentligt men det ska såklart finjusteras så småningom :)
 
Jag lär mig en massa nytt nuförtiden. Aldrig jobbat med Docker eller VLAN tidigare. Jag kör PF Sense som lätt hanterar VLAN och alla FW regler samt Unifi som kan filtrera VLAN. Det verkar fungera för tillfället även om jag har satt upp det från Norge. Alla nätverk är DHCP och LAN-1 kan snacka med allt men LAN-2, VLAN-Guest och VLAN-IOT är isolerade var för sig. Dessutom så blir alla okända macadresser isolerade på LAN-1 så jag hoppas jag har skruvat åt ordentligt men det ska såklart finjusteras så småningom :)
Bästa sättet att lära sig, bara kasta sig huvudstupa in i problemen.
Det kan vara intressant att känna till att VLAN inte kom till för att öka säkerheten, utan för att segmentera nätverk utan att behöva dra mera kablar.
Väldigt svårt och komplicerat, men man kan ibland bryta sig ur ett VLAN, speciellt på äldre utrustning.

Verkligen synd med det här pandemihelvetet, hade varit superskoj att ha en KS-opensource gtg (blandat med klockor förstås).
 
Verkligen synd med det här pandemihelvetet, hade varit superskoj att ha en KS-opensource gtg (blandat med klockor förstås).
Ja, det hade varit riktigt nice om alla hade rullat in på varsin Ducati Monster eller liknande iklädda svart läder och med varsin pelicase med de bästa klockorna på bönpallen. Sedan hade open source snacket gått :)
 
Dags att liva upp tråden med den senaste uppdateringen jag gjort hemma. För 5 år sedan byggde jag min första FreeNAS server med ambition att bygga en ny 5 år senare eftersom 2 FreeNAS servrar med ZFS filsystem funkar bäst ihop. För ett par veckor sedan krashade min 2:a linux backup server och det var en bra signal att bygga FreeNAS server nr 2. Nuförtiden har FreeNAS bytt namn till TrueNAS så idag har jag äntligen 2 TrueNAS servrar som jobbar tillsammans. Jag tänkte sammanfatta fördelarna med detta bygge här. För den som endast tar bilder och video med sin telefon så är det mycket enklare och förnuftigare att köpa lagringsplats online och lagra sin data där men om man kräver lite mer av sitt system så kan detta vara ett bra alternativ.

TrueNAS använder ZFS filsystem och redan där har man en god anledning att använda detta system. ZFS är självläkande, det kan ta regelbundna snapshots av data och lagra detta på en annan server och det är skalbart i oändlighet. Med TrueNAS använder jag RAIDZ2 och RAIDZ på respektive server, S.M.A.R.T tester utförs regelbundet på diskarna, datan skrubbas (självläker) regelbundet och det tas regelbunden backup från master till slave server. Jag har installerat 3 jail på master server som kör Plex, Nextcloud och Unifi Controller. Med Plex så kan vi äntligen titta på dv filer från tidigt 2000-tal samt titta på gamla bilder, vi kan lyssna på vår gamla musik som jag har flacat från våra CD-skivor och vi kan också se på film. Med Nextcloud så har vi vår egna Dropbox i huset och jag har ställt in den så att bilderna från våra mobiltelefoner synkar dit istället för till iCloud. Det var för övrigt ganska så tidskrävande att föra över bilderna från frugans överfulla iCloud, döpa om den så att filnamnet reflekterar när bilden är tagen och kopiera dem till Nextcloud, men nu är det gjort. Med UnifiController så har jag nu kontroll på mina accesspunkter i huset. Regelbundet så tas det också snapshots på vår data till slaveservern så att vi förhoppningsvis alltid kan återskapa data om något går snett. Jag har också lyckats att koppla till en UPS till varje server så att de stängs ner efter 3 minuter om strömmen skulle gå. Det var inte så svårt som jag trodde.

Med en ny processor som blev över från den krashade linuxservern så tänker jag snart även uppdatera brandväggen som kör PFSense. Jag ska också installera en Docker server på TrueNAS slave så att vi dessutom kan köra PiHole i nätverket så att vi städar bort alla ads när vi surfar på nätet.

Jag tänkte skriva mer men tiden rinner iväg. Ställ gärna frågor om ni är intresserade av ett liknande bygge där hemma. Allt drivs såklart av open source mjukvara!
 
Dags att liva upp tråden med den senaste uppdateringen jag gjort hemma. För 5 år sedan byggde jag min första FreeNAS server med ambition att bygga en ny 5 år senare eftersom 2 FreeNAS servrar med ZFS filsystem funkar bäst ihop. För ett par veckor sedan krashade min 2:a linux backup server och det var en bra signal att bygga FreeNAS server nr 2. Nuförtiden har FreeNAS bytt namn till TrueNAS så idag har jag äntligen 2 TrueNAS servrar som jobbar tillsammans. Jag tänkte sammanfatta fördelarna med detta bygge här. För den som endast tar bilder och video med sin telefon så är det mycket enklare och förnuftigare att köpa lagringsplats online och lagra sin data där men om man kräver lite mer av sitt system så kan detta vara ett bra alternativ.

TrueNAS använder ZFS filsystem och redan där har man en god anledning att använda detta system. ZFS är självläkande, det kan ta regelbundna snapshots av data och lagra detta på en annan server och det är skalbart i oändlighet. Med TrueNAS använder jag RAIDZ2 och RAIDZ på respektive server, S.M.A.R.T tester utförs regelbundet på diskarna, datan skrubbas (självläker) regelbundet och det tas regelbunden backup från master till slave server. Jag har installerat 3 jail på master server som kör Plex, Nextcloud och Unifi Controller. Med Plex så kan vi äntligen titta på dv filer från tidigt 2000-tal samt titta på gamla bilder, vi kan lyssna på vår gamla musik som jag har flacat från våra CD-skivor och vi kan också se på film. Med Nextcloud så har vi vår egna Dropbox i huset och jag har ställt in den så att bilderna från våra mobiltelefoner synkar dit istället för till iCloud. Det var för övrigt ganska så tidskrävande att föra över bilderna från frugans överfulla iCloud, döpa om den så att filnamnet reflekterar när bilden är tagen och kopiera dem till Nextcloud, men nu är det gjort. Med UnifiController så har jag nu kontroll på mina accesspunkter i huset. Regelbundet så tas det också snapshots på vår data till slaveservern så att vi förhoppningsvis alltid kan återskapa data om något går snett. Jag har också lyckats att koppla till en UPS till varje server så att de stängs ner efter 3 minuter om strömmen skulle gå. Det var inte så svårt som jag trodde.

Med en ny processor som blev över från den krashade linuxservern så tänker jag snart även uppdatera brandväggen som kör PFSense. Jag ska också installera en Docker server på TrueNAS slave så att vi dessutom kan köra PiHole i nätverket så att vi städar bort alla ads när vi surfar på nätet.

Jag tänkte skriva mer men tiden rinner iväg. Ställ gärna frågor om ni är intresserade av ett liknande bygge där hemma. Allt drivs såklart av open source mjukvara!


Ambitiöst! Och givetvis imponerande.
Önskar att jag hade den fingerfärdigheten och förmågan att skapa ett eget NAS hemma och strunta i Google's ockerpriser för utökad molnlagring.
 
Dags att liva upp tråden med den senaste uppdateringen jag gjort hemma. För 5 år sedan byggde jag min första FreeNAS server med ambition att bygga en ny 5 år senare eftersom 2 FreeNAS servrar med ZFS filsystem funkar bäst ihop. För ett par veckor sedan krashade min 2:a linux backup server och det var en bra signal att bygga FreeNAS server nr 2. Nuförtiden har FreeNAS bytt namn till TrueNAS så idag har jag äntligen 2 TrueNAS servrar som jobbar tillsammans. Jag tänkte sammanfatta fördelarna med detta bygge här. För den som endast tar bilder och video med sin telefon så är det mycket enklare och förnuftigare att köpa lagringsplats online och lagra sin data där men om man kräver lite mer av sitt system så kan detta vara ett bra alternativ.

TrueNAS använder ZFS filsystem och redan där har man en god anledning att använda detta system. ZFS är självläkande, det kan ta regelbundna snapshots av data och lagra detta på en annan server och det är skalbart i oändlighet. Med TrueNAS använder jag RAIDZ2 och RAIDZ på respektive server, S.M.A.R.T tester utförs regelbundet på diskarna, datan skrubbas (självläker) regelbundet och det tas regelbunden backup från master till slave server. Jag har installerat 3 jail på master server som kör Plex, Nextcloud och Unifi Controller. Med Plex så kan vi äntligen titta på dv filer från tidigt 2000-tal samt titta på gamla bilder, vi kan lyssna på vår gamla musik som jag har flacat från våra CD-skivor och vi kan också se på film. Med Nextcloud så har vi vår egna Dropbox i huset och jag har ställt in den så att bilderna från våra mobiltelefoner synkar dit istället för till iCloud. Det var för övrigt ganska så tidskrävande att föra över bilderna från frugans överfulla iCloud, döpa om den så att filnamnet reflekterar när bilden är tagen och kopiera dem till Nextcloud, men nu är det gjort. Med UnifiController så har jag nu kontroll på mina accesspunkter i huset. Regelbundet så tas det också snapshots på vår data till slaveservern så att vi förhoppningsvis alltid kan återskapa data om något går snett. Jag har också lyckats att koppla till en UPS till varje server så att de stängs ner efter 3 minuter om strömmen skulle gå. Det var inte så svårt som jag trodde.

Med en ny processor som blev över från den krashade linuxservern så tänker jag snart även uppdatera brandväggen som kör PFSense. Jag ska också installera en Docker server på TrueNAS slave så att vi dessutom kan köra PiHole i nätverket så att vi städar bort alla ads när vi surfar på nätet.

Jag tänkte skriva mer men tiden rinner iväg. Ställ gärna frågor om ni är intresserade av ett liknande bygge där hemma. Allt drivs såklart av open source mjukvara!
Wow, imponerande. Mycket at sätta sig in i.
Kör du Nextcloud som en docker container?
Jag kör docker fullt ut överallt där det är möjligt, både hemma och på jobbet. Supersmidigt att uppdatera installationer.
Hur synkar du datat mellan sevrarna?

Jag använder ofta rsync eller rsnapshot för att synka data.
Med rsync måste man vara lite försiktig så man inte råkar synka över en tom huvudkatalog, och allting försvinner på mottagarsidan.
Jag kör alltid en test innan jag startar rsync, det skall finnas minst xxx GB/TB hos "avsändaren" om synken skall starta överhuvudtaget.
Ibland har man en disk etc monterad under ex. "/backup", om denna inte monteras efter omstart (trasig etc) så blir katalogen /backup tom.

För er som är nyfikna på docker, docker finns för Linux, Mac och Windows.
Om man installerar docker kan man enkelt starta upp ex. Nextcloud:
"docker run nextcloud"
docker laddar ned en image, nextcloud, samt startar upp den (blir en sk. container).
imagen innehåller allt som behövs, OS, databas, PHP etc.

För hantering av docker-imagear i stor/gigantisk skala kan man använda ett kubernetes-kluster.
 
Wow, imponerande. Mycket at sätta sig in i.
Kör du Nextcloud som en docker container?
Jag kör docker fullt ut överallt där det är möjligt, både hemma och på jobbet. Supersmidigt att uppdatera installationer.
Hur synkar du datat mellan sevrarna?

Jag använder ofta rsync eller rsnapshot för att synka data.
Med rsync måste man vara lite försiktig så man inte råkar synka över en tom huvudkatalog, och allting försvinner på mottagarsidan.
Jag kör alltid en test innan jag startar rsync, det skall finnas minst xxx GB/TB hos "avsändaren" om synken skall starta överhuvudtaget.
Ibland har man en disk etc monterad under ex. "/backup", om denna inte monteras efter omstart (trasig etc) så blir katalogen /backup tom.

För er som är nyfikna på docker, docker finns för Linux, Mac och Windows.
Om man installerar docker kan man enkelt starta upp ex. Nextcloud:
"docker run nextcloud"
docker laddar ned en image, nextcloud, samt startar upp den (blir en sk. container).
imagen innehåller allt som behövs, OS, databas, PHP etc.

För hantering av docker-imagear i stor/gigantisk skala kan man använda ett kubernetes-kluster.
Ja, det blev en del att sätta sig in i men jag kom in i ett flyt så det kändes fint :) Tidigare körde jag Unifi och Pihole i Docker och så hade jag Nextcloud på en dedikerad VM men jag tyckte att det blev lite rörigt. På TrueNAS installerar jag bara en valfri jaiimage, väljer DHCP så får jailen en egen IP utan en massa extra inställningar förutom på brandväggen. Men jag ska köra Pihole i Docker på en VM på slaveservern istället eftersom den inte finns som förinstallerad jail. Det ska jag fixa när jag bygger om brandväggen. Jag kopierar nästan alltid med rsync, alltid med trailing / och ofta med —delete option. Det funkar bra i kombo med snapshots eftersom jag vill återspegla förändringen i filsystemet istället för att bara samla på mig filer. Det gör jag t ex från laptops till server samt från nextcloud/data till backupfolder (cronjob). Men mellan servrarna så kör jag helt enkelt en replication task som man ställer in med ett par musklick.
 
Senast ändrad:
Ja, det blev en del att sätta sig in i men jag kom in i ett flyt så det kändes fint :) Tidigare körde jag Unifi och Pihole i Docker och så hade jag Nextcloud på en dedikerad VM men jag tyckte att det blev lite rörigt. På TrueNAS installerar jag bara en valfri jaiimage, väljer DHCP så får jailen en egen IP utan en massa extra inställningar förutom på brandväggen. Men jag ska köra Pihole i Docker på en VM på slaveservern istället eftersom den inte finns som förinstallerad jail. Det ska jag fixa när jag bygger om brandväggen. Jag kopierar nästan alltid med rsync, alltid med trailing / och ofta med —delete option. Det funkar bra i kombo med snapshots eftersom jag vill återspegla förändringen i filsystemet istället för att bara samla på mig filer. Det gör jag t ex från laptops till server samt från nextcloud/data till backupfolder (cronjob). Men mellan servrarna så kör jag helt enkelt en replication task som man ställer in med ett par musklick.
Sitter och kollar lite på TrueNAS hemsida, vet du om det är Linux eller FreeBSD i botten?
Jails är iaf FreeBSD, men dom kanske har portat det till Linux?
 
Sitter och kollar lite på TrueNAS hemsida, vet du om det är Linux eller FreeBSD i botten?
Jails är iaf FreeBSD, men dom kanske har portat det till Linux?
Det är baserat på FreeBSD. Numer så kör jag BSD på serversidan och Linux på desktopen. PFSense är också baserat på BSD, dock osäker på vilken variant.
 
Passar inte det dig perfekt du som är en gammal BSD-räv. Har du aldrig testat FreeNAS?
Har kört den andra NAS-programvaran, "openfiler", i många år, för längesedan.
Numera kör jag med en "rå" Linux server som jag synkar bilder/dokument till med rsync från min mac.
Just zfs självhelande egenskaper gör mig lite sugen. Har börjar få upp lite korrupta jpg-bilder under året. Det är mest att det tar sån tid när man hanterar så mycket data...
Men det är nära :)

Vilken Linux kör du på desktopen?
Mig kvittar det nästan, men kör oftast Fedora.
Dom har en rolig communitysida med sköna tips:
 
Har kört den andra NAS-programvaran, "openfiler", i många år, för längesedan.
Numera kör jag med en "rå" Linux server som jag synkar bilder/dokument till med rsync från min mac.
Just zfs självhelande egenskaper gör mig lite sugen. Har börjar få upp lite korrupta jpg-bilder under året. Det är mest att det tar sån tid när man hanterar så mycket data...
Men det är nära :)

Vilken Linux kör du på desktopen?
Mig kvittar det nästan, men kör oftast Fedora.
Dom har en rolig communitysida med sköna tips:
Just ZFS var det som lockade mig till FreeNAS för 5 år sedan och den servern har varit mycket stabil och fin! Jag har faktiskt nästan aldrig kört RPM baserade distros med kanske ska jag testa Fedora, i alla fall på frugans dator som måste uppdateras. Jag var länge också en Gnome fanboy men nu kör jag faktiskt KDE. Det enda som är lökigt med KDE är att de trilskas med att alltid namnge sina applikationer med ett K som första bokstav. Men på laptopen kör jag Archlinux eftersom det är en rolling release. Tycker att det är bekvämt!
 
Just ZFS var det som lockade mig till FreeNAS för 5 år sedan och den servern har varit mycket stabil och fin! Jag har faktiskt nästan aldrig kört RPM baserade distros med kanske ska jag testa Fedora, i alla fall på frugans dator som måste uppdateras. Jag var länge också en Gnome fanboy men nu kör jag faktiskt KDE. Det enda som är lökigt med KDE är att de trilskas med att alltid namnge sina applikationer med ett K som första bokstav. Men på laptopen kör jag Archlinux eftersom det är en rolling release. Tycker att det är bekvämt!
Riktigt kul att höra att ni kör så mycket open source!
 
Ping någon nätverkshjälte!

På min PFSense brandvägg ska jag skapa en massa VLANS för olika nätverksfunktioner som InternetOfThings, NetworkOfThings, Guest osv. Jag tänker använda mig av Unifi AP och även deras switchar. Jag börjar förstå skillnad på trunkport och accessport osv men har frågor angående default gateways. Om jag skapar en massa olika VLANS med ip 192.168.10.1/24 192.168.20.1/24 osv, måste jag då också ställa in motsvarande default gateway för respektive VLAN på PFSense för att allt ska fungera och kunna kommunicera? Jag vill placera min HomeAssistant server på t ex 192.168.10.5 men jag vill också att någon gadget på t ex 192.168.20.134 ska kunna kommunicera med HA servern som är på ett annat VLAN genom ett hål i brandväggen och därmed låta PFSense också fungera som en layer3 switch.

Jag har tydligen inte alls riktigt förstått konceptet VLAN eftersom jag har kört med sketna noname switchar som förmodligen inte överför VLAN ID och därmed har det säkert funnits massor med hål i min nätverksinstallation med endast macfilter och fasta IP adresser som har stoppat den ena VLAN att nå något annat VLAN. PFSense ska fungera som DHCP router och brandvägg mm.
 
Ping någon nätverkshjälte!

På min PFSense brandvägg ska jag skapa en massa VLANS för olika nätverksfunktioner som InternetOfThings, NetworkOfThings, Guest osv. Jag tänker använda mig av Unifi AP och även deras switchar. Jag börjar förstå skillnad på trunkport och accessport osv men har frågor angående default gateways. Om jag skapar en massa olika VLANS med ip 192.168.10.1/24 192.168.20.1/24 osv, måste jag då också ställa in motsvarande default gateway för respektive VLAN på PFSense för att allt ska fungera och kunna kommunicera? Jag vill placera min HomeAssistant server på t ex 192.168.10.5 men jag vill också att någon gadget på t ex 192.168.20.134 ska kunna kommunicera med HA servern som är på ett annat VLAN genom ett hål i brandväggen och därmed låta PFSense också fungera som en layer3 switch.

Jag har tydligen inte alls riktigt förstått konceptet VLAN eftersom jag har kört med sketna noname switchar som förmodligen inte överför VLAN ID och därmed har det säkert funnits massor med hål i min nätverksinstallation med endast macfilter och fasta IP adresser som har stoppat den ena VLAN att nå något annat VLAN. PFSense ska fungera som DHCP router och brandvägg mm.
Är inte så haj på VLAN men kan försöka hjälpa till med routingen. Jag antar att din pfsense knyter ihop alla nät och har .1 som address. Du borde inte behöva lägga till något i pfsense för att den ska hitta till nät som är direktanslutna.

Om en maskin på ex. 192.168.10.0/24 ska kunna kommunicera med en maskin på 192.168.20.0/24 så behöver båda dessa maskiner ha default gateway satt till 192.168.10.1 respektive 192.168.20.1.

Om du vill att maskiner som går via din pfsense ska kunna kommunicera med nät som inte är direkt anslutna till din pfsense, ex. internet, så behöver du sätta en default gateway i pfsense till den router som internet är anslutet till.

Om du har flera routrar i ditt nät så behöver du lägga till entries i pfsense's routing-tabell för de nät som inte är direktanslutna.
 
Är inte så haj på VLAN men kan försöka hjälpa till med routingen. Jag antar att din pfsense knyter ihop alla nät och har .1 som address. Du borde inte behöva lägga till något i pfsense för att den ska hitta till nät som är direktanslutna.

Om en maskin på ex. 192.168.10.0/24 ska kunna kommunicera med en maskin på 192.168.20.0/24 så behöver båda dessa maskiner ha default gateway satt till 192.168.10.1 respektive 192.168.20.1.

Om du vill att maskiner som går via din pfsense ska kunna kommunicera med nät som inte är direkt anslutna till din pfsense, ex. internet, så behöver du sätta en default gateway i pfsense till den router som internet är anslutet till.

Om du har flera routrar i ditt nät så behöver du lägga till entries i pfsense's routing-tabell för de nät som inte är direktanslutna.
Tack för svar! Jag fick kolla på ett par andra videos för att fatta. När man skapar VLANS i PFSense så tilldelar man dessa ett interface ex OPT1 och OPT2 och även en default gateway med motsvarande IP som ditt VLAN ID. Det är i alla fall smartast att ge dem samma namn så att ditt VLAN med ID 10 får en default gateway på 192.168.10.1 osv. Vidare aktiverar man DHCP och ställer in DHCP range. När man sedan har ett gäng med VLANS så är det i inställningen till brandväggen som det går att öppna upp trafik mellan olika VLANS efter behov. Det verkar inte vara särskilt krångligt. På unifi gäller det sedan att skapa VLANS och tilldela dessa motsvarande ID som skapades i PFSense samt att tilldela rätt port i switchen till rätt VLAN eller om trafiken går mellan t ex PFSense och switchen öppna upp denna port så att den accepterar all VLAN trafik (trunk port). Det kommer bli lite meckigt men samtidigt skoj. Jag tror jag har en bra plan nu. Jag ska även ställa in en gammal router med medföljande instruktioner så att familjen snabbt kan koppla om nätverket till ett helt basic nätverk om VLAN-nätverket börjar trassla när jag är borta. Det har hänt ett par gånger och det är ju trevligt för familjen att inte förlora tillgång till internet och TV när jag inte kan felsöka.
 
Tillbaka
Topp