HDV - forvirringen mellom 1080 og 1920

Du er kanskje på vei til å kjøpe nytt kamera. Forvirringen rundt hva som er "ekte HD" og ikke kan være frustrerende, og spørsmål som "hvorfor har ikke kameraet jeg skal kjøpe ekte HD? Det har jo bare 1080, men jeg vil jo egentlig ha 1920!" kan fort dukke opp. Fortvil ikke, denne guiden vil forklare hvorfor.

Svaret er enkelt. Det er med HDV som med PAL - det er forskjell på kvadratiske og ikke-kvadratiske pixler som utgjør denne forskjellen. Kort fortalt er oppløsningen 1920x1080 HD i kvadratiske pixler, mens 1440x1080 er nøyaktig det samme, bare i ikke-kvadratiske pixler.

Som kjent er jo til sammenligning, PAL i 16:9-format 1024x576 i kvadratiske pixler, mens det som ikke-kvadratiske er 720x576, akkurat som 4:3. Det er altså en pixelaspekt-ratio som utgjør forskjellen.

Når du lager en tidslinje i Final Cut skal du altså bruke preseten for HDV, 1440x1080, både på oppløsning og pixel-aspect.

Eksport
Ved eksport fra Final Cut eller iMovie, for bruk på skjerm i QuickTime vil du normalt få et kvadratisk bilde dersom du ikke eksporterer riktig. Dette har igjen, med antall pixler vs. høyde/bredde-forhold eller pixelaspekt-ratio å gjøre.

For bruk på datamaskin blir det riktig å bruke 1920x1080, som er lik 16:9. Bruk følgende formel for å få det i riktig høyde/bredde-forhold i kvadratiske pixler dersom du ikke ønsker å bruke full HD-oppløsning: bredde / 16 * 9 = høyde

Eksempel: Dersom du vil ha en bredde på 640, blir regnestykket: 640 / 16 * 9 = 360

Dersom man vil kan man også endre størrelsesforholdet i etterkant ved hjelp av QuickTime Pro. Det gjøres på følgende måte.

1) Åpne QuickTime-filen din i QuickTime Pro
2) Velg Vindu-menyen -> Vis filmegenskaper
3) Velg Video spor og trykk på fanen Visuelle innstillinger
4) Ta bort krysset for Behold proporsjoner
5) I feltet for bredde (det første) skriver du inn f.eks. 1440 dersom det er det du skal ha
6) Lukk Egenskaper-vinduet
7) Velg Arkiv-menyen og velg Lagre

Valg for kommentarvisning

Velg din foretrukket måte å vise kommentarer på og klikk på "Lagre innstillinger" for å aktivere endringene.

vemund

En god forklaring dette, det er mange som lurer på HD om dagen, og ikke bare oppløsning, men også hva I, P og tallene bak disse bokstavene betyr.
Prøver meg på noen forklaringer, korriger meg om jeg tar feil:
i=interlaced, dvs. bildet er oppbygd av to "halve" bilder som hver inneholder annenhver linje i (det hele) bildet.
p=progressiv, hvert bildet er "komplett" med all informasjon
p24=24 hele bilder pr. sek. (bps), som på "ekte" film.
p25=25 hele bps.
p30=30 hele bps.
i50=50 halve bps.
i60=60 halve bps.

Så 1080i50 (som konsument HDV vanligvis er) betyr at bildet er 1920x1080 stort og bygges opp av 50 halve bilder pr. sek.

Så var det at 720 også er HD... men se heller denne utmerka lista over videoformater:
http://www.surrealroad.com/digital/index.php/archives/2005/standard-data-resolutions/

TigerOla

Stemmer det, så langt jeg kan se :)

---
Mac Pro 2.66GHz
www.olahaldor.net

devo

Uff og atter uff.
Trodde vi var ferdige med pixel aspectratios, PAL / NTSC og interlacing en gang for alle når HD kom. Hva i alle haugvetter er vitsen med å lage ti tusen forskjellige oppløsninger / pixelratios / framerates og masse søppel? Hadde ikke 1080 60p vært nok? Til slutt ender vi vel opp med det formatet uansett. En LCD skjerm med en oppløsning på 1920x1080 er ingen hokus pokus.
Men når det raser ut LCD'er med oppløsninger ala 1366x768 fra elkjøp, hva skjer med 720p signalet da? Det må jo bli skalert på ett eller anna vis, og det er ikke bra. Er det for å passe til et gammelt format som skal fases ut? Og jeg ser mange flatskjermer som filmer. (har ikke kunne sjekka om dette bare gjaldt plasmaskjermer eller også LCD-skjermer) Trodde også dette hørte 90-tallet til ;) Jeg skal ikke ha en eneste skjerm til som flimer ihvertfall:)
Og så pixel aspectratios. Når noe blir filma til et digitalt signal (etterhvert) burde det bli 1920x1080 (1:1) med en gang, og alle ledd frem til flatskjermen på 1920x1080 burde være lossless (utenom effekter såklart). Først da kan det kalles HD. Final Cut Pro har f.eks lossless på alt som ikke endres. Og interlacing burde bare vært tillatt om det kunne gjenskapes uten de berømte "strekene" som kommer i kjappe bilder.

AlexJoyce

Men om man prater om progressive frames lagret til vanlig 50 field tape, så er det fortsatt interlaced. Det er slik det beholder kompatibliteten til alt utstyret ditt som er interlaced. Det er progressive segmented frames og den deler det hele bildet opp i to delebilder.
Forresten jeg tror tittelen (forvirringen mellom 1080 og 1920) skal være forivirring mellom 1440 og 1920 :-)
Når det kommer til kameraer som HDR-FX1 så er dens effektive oppløsning 1440*1080 (1440*1.33 aspect ratio).
Behøver ikke å være en negativ ting. Sony F900 sampler bildet ned fra 1920*1080 til 1440*1080 når man skriver til HDCAM. Den gjør det derimot ikke om man tar bildet rett til disk via HDSDI. Forskjellen er at brikken på dette kameraene er full sized og gir 1920*1080, mens CCD brikkene til HDR-FX1 gir 960x1080 (bortsett fra den grønne brikken som er justert for å gi høyere oppløsning i dette spekteret ettersom øyet er mest sensitivt til det).

Mulig den linken her er nyttig :
http://www.dvinfo.net/canonxlh1/articles/article06.php

devo

Joda, kompatibiliteten til mine to dv-kameraer og en 14" tv + en pc med firewire er viktig å opprettholde :D Neida. Tar poenget. Det er jo "hele vitsen" med interlacing. Det er for fastgrodd. Hvis ikke jeg tar feil er det vel sånn at TV2 sine HD-trailere kjører 1080 60p fordi de bruker fiber, mens NRK bruker coax og må nøye seg med 1080 60i siden det visstnok skal kreve halv båndbredde. Alt blir jo tilslutt arkivert i HD for senere bruk (hos TV2 ihvertfall).
Er det snakk om 1,5 Gb/s på 1080 60i og 3Gb/s på 60p eller er jeg på bærtur med alf prøysen nå? (hjalp tv2 med en produksjon i kristiansand tidligere i høst og fikk en liten prøvetur inni HD2... husker ikke helt alle specs'a. var for opptatt med å sikle på X antall lcd'er med 1920x1080 helt ned i 14-15" :P (liker LCD :) ))
Husker ikke engang hvilket kamera tv2 brukte der (bare at det var XDCAM) men vi måtte løpe litt med det i en folkemengde når det skulle bytte kameramann.. kunne jo snubla :P.
OK. litt off topic. smekk smekk :)
Men er egentlig mest irritert over skaleringa. kan vi ikke liksågodt ha 1080p/i med 1.33 pixel aspect ratio da? :)

EDIT: typo. tastaruret og musa lagger.. (overbelasta trådløst nettverk + bluetooth)

AlexJoyce

Jeg kjenner ikke særlig godt til broadcast markedet(har vel sett innsiden på en OB-buss en gang) ettersom jeg ikke jobber i det feltet, så jeg vet ikke hvordan systemer de har. Hvorvidt alt lagres til disk der eller til tape, men ivertfall så regner jeg med at de også bruker HD-SDI(1.485 Gbit/s single-link eller 2.970 Gbit/s dual-link). Et 1080 60p signal går fint over HD-SDI. Thomsom Viper og Sony F950 bruker dual-link HD-SDI til å overføre et 1080 uncompressed (4:4:4) signal.

En ting man også må tenke på er at ut til seerne så sendes det pr. idag i interlaced om det er 1080 materiale og kompresjonen er noe sånn som 50:1 innen det når tv'en i stuen din, så hvor mye fetere en sportssending vil se ut på TV2 enn på NRK pr. idag kan vel diskuteres :-D
1080 60p er vel uansett det optimale ettersom man ut ifra den masteren kan skape hvilket som helst HD format i bruk idag, men med mindre TV2 senere gir ut sine sendinger på HDDVD, så ser vi nok neppe noen fordeler av at de har det....

Apropos små HD paneler.. fikk denne Pana 8" on-board HD monitoren til F900'en her om dagen... om små paneler er tingen :-)

http://www.panasonic.com/pbds/subcat/Products/displays_monitors/f_bt-lh900.html

Froskus

Av det jeg kan se her, så tror jeg gratisvideoene på denne siden: http://movielibrary.lynda.com/html/modPage.asp?ID=152 (fikk ikke til den derre "trykk her" nå) kan være litt interessange å se på (jeg lærte noe av dem i alle fall) Scroll litt ned på siden.

Macbook: 2gHz, 2GB ram, 100 GB HD
www.videoproduksjon.net

CP

Er greit å være klar over at det kun er i PAL vi har avlange pixler (720 x 576 pixler på en PAL TV tilsvarer 768 x 576 pixler på fex. en dataskjerm). I HDTV verdenen er både 1080 og 720 standarden basert på "non squere" pixler (som på en dataskjerm). Det at man i HDV benytter 1440 x 1080 pixler heter sub-sampling eller pre-filtrering, noe som er helt vanlig i de fleste HD kodekser (HDV, DVCPRO HD, HDCAM osv). Men felles for dem alle er at signalet ut til skjerm/visning skaleres tilbake til 1920 x 1080 eller 1280 x 720 (for 720p). Hva flatskjermen din så gjør med signalet er en helt annen historie...

HDV(2) skal altså vises på dataskjerm i 1920 x 1080 pixler og HDV1 skal være 1280 x 720.
Settingsene man skal bruke i Final Cut eller After Effects skal derimot være 1440 x 1080.

Dette minner forøvrig litt om PAL 16:9 diskusjonene før i tiden: PAL er 720 x 576 pixler uansett widescreen eller ikke! På en 16:9 TV blir signalet strukket til det som i dataverdenen tilsvarer 1024 x 576 pixler. På TV er dette egentlig 960 x 576 avlange pixler...

Forøvrig Har CCDene på de fleste prosumer kameraer ikke nativ oppløsning. Sonys HDV kameraer FX1 og Z1 har fex. 960 x 1080 pixler fra CCDene, signalet skaleres deretter opp til 1440 x 1080 før HDV komprimeringen (og deretter opp til 1920 x 1080 ved visning på tv)

Hensikten med denne skaleringen i hytt og pine er selvfølgelig å prøve å hente mest mulig kvalitet ut av et "billig" format (HDV). Lavere oppløsning med litt skalering ser "mye" bedre ut en overkomprimert full-oppløsning.

Kompromissene med lavere oppløsning på CCDene er fordi kameraene ellers ville være for lys-svake med sine mikroskopiske CCDer. Ingen vits i høy oppløsning hvis man ikke får nok lys...

PS. EBU anbefaler 720P som HD transmisjons format og 720p eller 1080p som produksjons format - ikke 1080i, da interlace gir for mye artifacts for effektiv komprimering. HDV 1080i er derfor ikke særlig godt egnet til framtidens DTV.

Christian Pettersen
Konsulent - Pro Video
Office Line

AlexJoyce

Quote : PS. EBU anbefaler 720P som HD transmisjons format og 720p eller 1080p som produksjons format - ikke 1080i, da interlace gir for mye artifacts for effektiv komprimering. HDV 1080i er derfor ikke særlig godt egnet til framtidens DT

Altså en MPEG kompressor kan teoretisk oppnå en lavere output bitrate med progressive bilder enn med interlaced for samme nivå med kompresjons artifacts. Dette fordi makroblokkene tar dobbelt så stor plasss på skjermen i et interlaced bilde som i et progressivt ett samt at for mye artifacts i den vertikale oppløsningen forvirrer bevegelses estimatoren(Vet ikke om jeg kan kalle den det på Norsk. Motion Estimator på Engelsk ivertfall).

  • Skriv ut artikkel
  • Abonner med RSS