Skriv inn din e-post
Produkter
Finn blant alle våre produkter
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Andre måter å finne på
Når vi snakker om streamingfilformater finnes det en mengde begreper som ikke alltid er så enkle å forstå. Vi begynner fra starten: du har selve bildestrømmen som grovt sett kan lages på to måter: enten registrerer du bilde for bilde, som gammeldags film, eller så sender du endringen i filmbildet.
Kilden er naturligvis et kamera eller en grafikkortgenerert «monitorbilde» bygget opp av bildepunkter (piksler), som gir en bestemt oppløsning, for eksempel HD, som er 1920 piksler bredt og 1080 piksler høyt. Siden det er film, er det et antall bilder per sekund, angitt i Hz (eller fps), ofte 30 eller 60 ved streaming.
Nå må vi vite hva mediet vårt er: hvilken type nettverk og hvor mye kapasitet vi har. Hvis vi skulle sende en strøm i full oppløsning, ville det tatt enormt med plass. Det kan fungere i et eget 10 GB LAN uten annen trafikk, men ikke hvis vi skal sende til YouTube eller over internett. Selv i interne nettverk finnes det ofte annen trafikk som påvirkes.
Dette løses med komprimering, som vi kommer tilbake til, og ved å bestemme en bitrate – altså hvor mange databiter som sendes per sekund.
Til slutt må vi koble sammen videostrømmen med lydstrømmen, slik at de kommer frem samtidig. Dette gjøres ved å lage en «container» som pakker begge og gjør det mulig å lagre som fil.
Eksempler på containere er .mp4, .webm og .mkv. For profesjonell video finnes IPMX og ST2110, samt mange proprietære formater, men disse tar ofte for mye plass for å brukes på åpent internett. For vanlig bruk er MP4 klart mest utbredt.
I en ideell verden skulle bitrate vært så høy som mulig, men vi må balansere den mot båndbredde i nettverk, switcher og brukerutstyr. Vi må unngå latency (forsinkelser) som oppstår når nettverket ikke rekker å håndtere dataene.
Flere biter per sekund gir bedre bilde, men krever mer kapasitet. Derfor må man enten redusere originalstørrelsen, øke tilgjengelig båndbredde, eller balansere ønsket kvalitet.

Man snakker ofte om lossless (tapsfri) og lossy (tapsgivende) komprimering.
Lossy komprimering fjerner data til signalet passer ønsket størrelse, og håper at kvalitetstapet ikke merkes. Moderne algoritmer er blitt svært gode på dette. H.265 (HEVC) er et eksempel, og gir mindre filer enn forgjengeren H.264 (MPEG-4 AVC), som fortsatt er det vanligste streamingformatet.
Disse metodene jobber med forskjeller mellom bilder. For vanlig streaming, KVM og lokal overføring brukes ofte H.264.
Store selskaper lager også egne formater, som Googles VP9 og AV1, som brukes av blant annet Amazon, Netflix og Microsoft.

Parallelt med H.264 utviklet man andre algoritmer der kvaliteten i hvert enkelt bilde var viktig.
Motion JPEG (MJPEG) lagrer hver enkelt bilde, noe som gir høy kvalitet, men ineffektiv databruk. Det brukes fortsatt i bildearkiv, medisinsk teknologi og overvåkning.
Dette utviklet seg videre til Motion JPEG 2000 (MJ2) rundt år 2000, brukt i mange profesjonelle systemer og arkiver.
Den nyeste utviklingen er JPEG XS, brukt i moderne produksjonssystemer.
Disse formatene kan være tapsfrie hvis man har nok båndbredde og et godt nettverk.
Broadcast-bransjen oppdaget tidlig behovet for streaming for TV-produksjon. Før brukte man proprietære løsninger, men behovet for standardisering økte.

Selskapet NewTek utviklet i 2015 NDI (Network Device Interface). Det startet som nesten ukomprimert video, men har senere fått komprimerte varianter som NDI HX3 (H.265). NDI brukes mye fordi det også inkluderer lyd og metadata.

Organisasjonen SMPTE (Society of Motion Picture and Television Engineers) utviklet en åpen standard: ST2110.
ST2110 er et sanntidsprotokoll (RTP) som bruker PTP (Precision Time Protocol) for synkronisering. Det finnes både ukomprimerte og lett komprimerte varianter, ofte med JPEG XS.
Forsinkelsen kan være under 1 millisekund. Systemene krever kraftige nettverk (25–100 Gb/s) og bygges ofte med doble nettverk (RED/BLUE) for sikkerhet.
Fra dette kan vi forstå at denne typen signalhåndtering er vanskelig å overføre til AV-industrien, som har behov for å bygge konferanseanlegg, idrettsstadioner og skape live-arrangementer og konserter.
Et stort antall produsenter har utviklet egne formater for overføring med varierende kvalitet og forsinkelse. Eksempler på lisensavhengige formater som ofte brukes er Dante, som finnes i tre typer: Dante AV, Dante AV-H og Dante-A. Fordelen er at Dante opprinnelig var en lydprotokoll og allerede har et fungerende styringsmiljø. Først nå begynner uavhengige standarder å komme, noe du kan lese mer om her (PlexusAV).

Når du velger utstyr
Er videostrømmen konstant (overvåkning, digital signage)?
→ H.264/H.265 fungerer bra.
Trenger du synkronisering (videovegger, live switching)?
→ JPEG-baserte formater er bedre, men krever mer båndbredde.
Husk: komprimering er ikke magi – fjernet informasjon kan ikke gjenopprettes.
Sjekk nettverkskapasitet før du kjøper utstyr.
→ Eget nettverk er ofte best.
Ikke vær redd for å spørre om videoformat og nettverksbehov.