Digitale video


1 bit
1PM: Basisbegrippen Video / 2015_2016 / Laatste aanpassing op 2016-06-19.
Klopt het als ik zeg dat een bit de kleinste eenheid aan info is, De bit is de kleinste eenheid aan info als we over digitale informatie babbelen.
maar dat niet elk signaal gelijk staat een 1 bit, maar 2 signalen door 1 bit kunnen worden doorgegeven en 9 signalen bijvoorbeeld door 4 bits? Ik snap niet wat je hiermee bedoelt.
Wat als gevolg heeft dat niet elk pixel (opgebouwd uit een signaal voor synchronisatie, kleur en helderheid) door even veel bits wordt doorgestuurd, maar pixel x bijvoorbeeld uit 2 bits bestaat en pixel y uit 5 bits?
Voor een videobeeld wordt gecompresseerd, heeft ieder pixel steeds evenveel bits nodig om de helderheid en kleur aan te geven.

Berekenen aantal samples
1BGM: Videotechnieken / 2006_2007 / Laatste aanpassing op 2007-09-01.
 
bij digitale video:
in component signaal hebben ze voor het gemak een gemeenschappelijke samplingsfrequentie voor genomen 13.5 Mhz dit is voor pal 864 x de lijnfrequentie maw in 1 lijn wordt er 864 keer een monster genomen
 
nu in het samplingsmodel 4:2:2 vraagt men eigelijk achter 720 helderheids sampels en 2x360 kleurverschilsamples wat neerkomt op 1440 samples voor het actieve beeld voor helderheid en kleur samen.
 
maar 864 samples van 8 bit komt neer op 864 byte ( 8 bit is 1 byte)
hebben eigelijk 1440 samples nodig van 8 bit dus  .....
Deze 864 zijn het aantal keren dat er een sample wordt genomen van het videosignaal per volledige lijn.  Dat levert dus 864 helderheidssamples, en 864 kleurensamples.
De 1440 zijn het aantal datawaarden die worden gemaakt in het actieve gedeelte van een lijn: 720 voor de helderheid, 360 voor het rode kleurverschilsignaal, en 360 voor het blauwe kleurverschilsignaal.
 
ja ik weet niet het is mij weeral niet echt duidelijk u redenering op LB V2.6 over een digitale lijn.
 
die 1440 samples voor het actieve beeld dat u nodig heeft hoe komt het dat er bij een samplingsfrequentie van 13.5 Mhz waarbij er maar 864 samples beschikbaar zijn u nog plaats over heeft identificatie, timing , embedded audio ? waar haalt u dat vandaan???
864 voor de volledige lijn, min de 720 voor het actieve gedeelte van de lijn, geeft een overschot van 144 samples.
 
of moeten we die 864 zien als periodes in de lijn en vermits we 2 sampels per periode nemen
hebben we eigenlijk 1728 samples beschikbaar en zo dus
1728-1440=288 288 sampels van 8 bit over en dus ook 288 byte?
Neen, als je het hebt over 720 of 864 samples, dan gaat het over het aantal keren dat het videosignaal geapled wordt.
Als je het hebt over 1440 of 1728 samples, dan gaat het over het helderheids- en kleurensignaal samen.
 
maar dan snap ik niet een sample frequentie van 13.5Mhz dat betekent 13500000 keer per seconde een sample neemt en er zijn 15625 lijnen per seconde dan komt ik toch uit op 864 samples maar per lijn en dat is nog eens een lijn van 64µs niet eens van 52µs.


Bitrate
2BGM: TVstudiotechnieken / / Laatste aanpassing op 2006-06-25.
Bij 4:2:2 staat in de cursus: "Per lijn worden er dus 720 (Y) en 2*360 (R-Y; B-Y), of 1440 samples doorgestuurd. Bij een 8-bits sampling levert dit 216 Mb/s, bij 10 bits wordt dit 270 Mb/s. Indien enkel het actieve beeld wordt verwerkt, wordt dit respectievelijk 166 Mb/s en 207 Mb/s."
Kloppen deze berekeningen?
Het aangegeven aantal samples staat voor het aantal aktieve samples.  Deze worden bekomen bij een sampling van Y aan 13,5 MHz, en R-Y en  B-Y aan 6,75 MHz.  In totaal dus 13,5 + 6,75*2 = 27 Msamples/sec.  Als we dit nemen aan 8 bit komen we op 27*8=216Mbit/sec, of 27*10=270Mbit/sec.

Bitrates
1BGM: Videotechnieken / 2006_2007 / Laatste aanpassing op 2007-09-01.
bij de bitrate van 4.2.2 snap ik iets niet goed
per lijn 1440 actieve samples
er zijn 625 lijnen per beeld
en er zijn 25 beelden per seconde
bij een 10 bits sampling krijg je toch 225Mb /s ( in de curses staat 270Mb/ s)
10* 1440 * 625 *25=225 000 000 bits per seconde
bij 270Mb/s krijgen we dan
270 000 000 /(1440*25*8)= 937.5 lijnen?????
want zoals in de cursus wordt vermeld " als we enkel het actieve beeld ( moet dat trouwens niet 575 ip 576 zijn ( men neemt 2X 25 lijnen weg van de rasteronderdrukking)) sampelen kom ik ok aan een waarde van 207 Mb/s
10*1440*575*25=207 000 000 Mb/s
Bij SDI worden niet enkel de actieve samples doorgestuurd, maar alle 864 samples van een videolijn.
Dan kom je wel op 270Mb/sec.
Bij digital video wordt de halve lijn aan het eind van raster 1, en bij het begin van raster 2 doorgetrokken over de volledige lijn. Daardoor komt er een volledige lijn aan actieve video bij, en komen we op 576 actieve lijnen in een beeld


Bitrates berekenen
1BGM: Videotechnieken / 2006_2007 / Laatste aanpassing op 2014-05-18.
> 4. (LB V2.6) p 228: Digitale video: Component: sampling: 4:2:2
> "Per lijn worden er dus 720 (Y) en 2*360 (R-Y;B-Y), of 1440 actieve
> samples doorgestuurd. Bij 8-Bits sampling levert dit 216 Mb/s, bij 10 bits
> wordt dit 270 Mb/s. Indien enkel het actieve beeld (576 lijnen) wordt
> verwerkt, wordt dit respectievelijk 166 Mb/s en 207 Mb/s."
>
> Hoewel het hier waarschijnlijk een eenvoudig rekensommetje betreft, ik heb
> geen idee hoe u aan 216Mb/s, 270Mb/s, 166Mb/s en 207Mb/s komt.

 

Sampling aan 13,5 MHz
10 of 8 bits per sample
Steeds 1 Y-sample en 1 Chroma sample (Pr of Pb)
Dus:
13,5 Msample/sec * 10 bits/sample * 2= 270Mbit/sec
13,5 Msample/sec * 8 bits/sample * 2= 216Mbit/sec

Als we enkel het actieve beeld nemen:
1440 samples / lijn
576 lijnen / beeld
25 beelden/sec
10 of 8 bits per sample
Dus:
1440 samples/lijn * 576 lijnen/beeld * 25 beelden/sec * 10 bits/sample = 207.360.000 Bit/sec
1440 samples/lijn * 576 lijnen/beeld * 25 beelden/sec * 8 bits/sample = 165.888.000 Bit/sec



Color sampling
1ASS: Basisbegrippen Video / 2015_2016 / Laatste aanpassing op 2016-04-19.
Ik zit al een tijdje te staren en na te denken over de slide op bladzijde 40 over het samplen van de kleuren (voor duidelijkheid: zie foto). Ik begrijp waarvoor de 4:2:2 verhouding staat maar ik zie het veband niet met de bolletjes die erbij staan als illustratie. Bij 4:1:1 en 4:2:0 zien de bolletjes er anders uit en staan ze ook anders maar ik weet niet hoe dat komt. Zou U mij dit aub in het kort willen uitleggen als dit mogelijk is?
Alvast bedankt!


Ik heb de figuur hier in kleur bijgevoegd.

Beschouw 4:2:2, 4:2:0 en 4:1:1 gewoon als een benaming.  Als je het detail hiervan wil weten, kan je kijken op https://en.wikipedia.org/wiki/Chroma_subsampling

Bij het digitaliseren van videobeelden, worden heel veel gegevens  aangemaakt.  Het is van belang een manier te vinden om deze hoeveelheid aan gegevens te beperken.
In ons oog wordt het beeld als helderheid en kleur behandeld.  Voor het oog is de helderheid belangrijker dan de kleur.
Dat wil dus zeggen dat we van de helderheid meer pixels moeten digitaliseren dan voor de kleur.
De zwarte bolletjes stellen de beeldpunten voor waarvan de helderheid wordt gedigitaliseerd.
De rode bolletjes stellen de beeldpunten voor waarvan het rode kleurverschilsignaal wordt gedigitaliseerd.
De blauwe bolletjes stellen de beeldpunten voor waarvan het blauwe kleurverschilsignaal  wordt gedigitaliseerd.

4:4:4 (hier niet getoond) neemt van iedere pixel de helderheid en de kleur.
4:2:2 geeft de beste beeldkwaliteit van deze 3 voorbeelden.  Het is de kwaliteit die wordt gebruikt voor postproductie.
4:2:0 en 4:1:1 hebben nog steeds evenveel helderheidspunten als 4:4:4 en 4:2:2, maar ze hebben minder kleurenpunten.  Het totaal van de gegevens (de helderheids en kleurenpunten samen) is lager, en neemt dus minder ruimte in op de harde schijven.  De kwaliteit is dus ook lager.  Deze kwaliteit wordt gebruikt voor consumer toepassingen en voor uitzendingen.

Colorimetrie HD
1BGM: Videotechnieken / 2006_2007 / Laatste aanpassing op 2007-05-26.
> - In de minimumlijst spreekt u over het verschil in colorimetrie van SD en
> HD; maar ik blijk deze informatie in dit hoofdstuk nergens terug te vinden?
Dit staat bij Colorimetrie

Componenten
1BGM: Basisbegrippen Video / 2014_2015 / Laatste aanpassing op 2015-01-02.
Dag meneer, bij het stuk over PAL / Digitale video kwam ik iets tegen dat me in de war bracht, en ik het anders het verstaan uit de vorige slides / opzoeking. 
U zegt op pagina 37 van de slides, de laatste regel: "Y, U en V (of Y, B-Y en R-Y ) zijn de benamingen voor de analoge kleurverschilsignalen, Y, Cr & Cb (of Y, Pr & Pb) zijn de benamingen voor de digitale componenten."
Waar ik verward ben is bij: "Y U & V (of Y, B-Y en R-Y) zijn de benamingen voor analoge kleurverschilsignalen". de Y in deze is toch geen kleurverschilsignaal maar een Luminantie signaal / component? Ook begreep ik niet goed wat deze specifiek met analoog te maken hebben? 
Daarnaast dacht ik ook dat Y Pr & Pb specifiek bij analoge toestellen werd gebruikt en dat Y, Cr & Cb pas ontstaan is met de opkomst van digitale video om een systeem te hebben dat zowel digitaal als analoog kan 'lezen' (om het simpel te stellen)? 
Ik dacht dat elk van deze 4 een andere soort van encoding waren, die wel allemaal gebaseerd zijn op de luma-chroma theorie.

Er staat inderdaad een fout in de slides.
R, G, B, H, V: Analoge componenten plus de horizontale en verticale syncpulsen
R, G, B, S: Analoge componenten plus de samengestelde synchronisatie
R, G, B: Analoge componenten met de samengestelde synchronisatie op groen
Y: benaming van het luminantiesignaal.  De berekening ervan verschilt volgens de gebruikte norm
Y, R-Y, B-Y: analoge componentsignaal, waarbij R-Y en B-Y de kleurverschilsignalen zijn
Y, U, V: analoge componentsignaal, waarbij U en V de gereduceerde kleurverschilsignalen zijn, V=0,8777 (R-Y), U=0,493 (B-Y)
Y, Pr, Pb: analoge componentsignaal, waarbij Pr en Pb de kleurverschilsignalen zijn, Pb= 0,564 (B -Y), Pr = 0,713 (R-Y)
Y, Cr, Cb: digitale componentsignaal, waarbij Cr en Cb de gesampelde kleurverschilsignalen zijn van Pr en Pb

Voor de eenvoud heb ik in dit overzicht geen rekening gehouden met gammagecorrigeerde signalen.
Ook nog, Y,Pr,Pb is pas populair geworden bij de introductie van digitale toestellen in de consumermarkt.  In de professionele markt gebruikte men Y,R-Y,B-Y volgens de SMPTE,EBU of Betacam standaard.



Digital cinema
2BGM: TVstudiotechnieken / 2004_2005 / Laatste aanpassing op 2006-06-25.
Er staat in de tekst dat voor dig. cinéma men gebruik maakt van 1080i (pg1) terwijl er verder in de cursus (pg3)  bij de normen 1920 * 1080 * 30/24/25p. 24,25,30 slaat op cinéma, dit zijn toch het aantal bps in de cinéma, maar nu spreekt men van p voor progressieve structuur en niet meer van i van interlaced. Of moeten hier de progressieve beelden nog omgezet worden?
Het probleem wat je aanhaalt voor HD is zowat kenmerkend voor wat er aan het gebeuren is.  Omdat HD nog relatief jong is, zijn de normen zich nog aan het zetten.
Voor digitale cinema is het probleem van bandbreedte minder belangrijk dan dat van kwaliteit.  Het gaat hier immers over projectie in zalen, en niet over het uitzenden van programma's.  1080P heeft een bitrate van ongeveer 3Gb/sec, 1080I zit op ongeveer 1,5Gb/sec.  De beeldkwaliteit van 1080P is natuurlijk beter dan die van 1080I.
1080P is wat men (nu) wil kiezen voor 'digital cinema'.  Afgeleid daarvan wil men 1080P voorstellen voor TV kanalen die zich vooral op films willen richten. Omdat het eenvoudiger is om van 1080P naar 1080I te gaan, zal men voor 'digital cinema' opnemen op 1080P, en nadien voor uitzending op TV omzetten naar 1080I.
Een omzetting van I naar P gaat rasterfouten geven.  (Zie maar naar het freezen van een PAL beeld in een montage programma).
Dan zeg je ook nog "24,25,30 slaat op cinéma", dat klopt niet.  Het geeft het aantal beelden weer.  25 is bv dePAL, en 30 (29,97) de NTSC beeldfrequentie.

Maar: Digitaal werken met film ( de eigelijke DIGITAL CINEMA) bestaat al langer.  Het gaat hier over het afzonderlijk inscannen van ieder beeldje appart.  Er wordt dan ook niet gewerkt met YUV, maar met RGB beelden, waarbij iedere kleur aan de volledige resolutie wordt opgeslagen op harde schijven.  Hier spreekt men van 2K en 4K beelden: een resolutie van 2000 of 4000 punten.

Digitalisatie
2BGM: TVstudiotechnieken / 2005_2006 / Laatste aanpassing op 2006-06-25.
> blz. 65 onderaan: E'r-E'y zal als uiterste waarden +0,701V en -0,701V en 
> E'b-E'y +0,886V en -0,886V hebben; komen die waarden van ergens of moeten we 
> ze gewoon aannemen?
Als je voor alle mogelijke kleuren de waardes berekent, dan zal je zien dat dit de uiterste waarden zijn. Ik moet toegeven dat ik dit zelf ook niet heb berekend, maar het zijn waarden die in verschillende texten terugkomen.
> blz. 67: hoe zit dat met die "XY" en tijdreferentiegegevens, kan ik even
> niet volgen...
Met "XY" worden 2 Nibbles aangegeven, dus in totaal 8 bits. De tabel daaronder geeft aan wat er in die 8 bits zit, bv een bit om aan te geven of het een lijn nuit het eerste of het tweede raster is (F), een bit om aan te geven of het een videolijn uit de rasteronderdrukking is of niet (V), ..., en nog wat bits om aan foutcorrectie te doen (P0-P3)


Digitaliseren
2BGM: TVstudiotechnieken / 2004_2005 / Laatste aanpassing op 2006-06-25.
klopt dit volgend tekstje? dan snap ik het begin al van dig video, gewoon even ter controle.

> "Component video bevat de drie gescheiden signalen Y, Pb en Pr (ook wel Y,  Cb en Cr genoemd). Waarbij Y het helderheidsignaal is, Pb (of Cb) het blauw signaal minus de helderheid (Y) en Pr het rood signaal minus de helderheid.  dus kortmweg: component bestaat uit: Y, (R-Y) en (B-Y). Dit is bedacht omdat dit signaal bij hogere resolutie een betere beeldkwaliteit oplevert
Neen.  Het omzetten van RGB naar YUV is gedaan om een andere reden.
-> Eerst is er de compatibiliteitsvoorwaarde: Men moet er voor zorgen dat een kleurensignaal ook op een zwart-wit toestel te zien is.  In de kleurensignaal moet dus ook de helderheid zitten.  Daarom zit er dus 'Y' in det gebruikte componentsignaal.
-> Dan zijn ze ook R-Y en B-Y gaan gebruiken, omdat voor kleurloze (zwart-wit) beelden R-Y en B-Y nul is.  R-Y en B-Y kunnen we dus echt wel zien als 'kleurtoevoeging'.
> dan RGB (= composiet)
RGB = COMPONENT!!!, De 3 kleuren zitten op 3 verschillende kabels, de sync zit meestal op een 4 kabel.  Men spreekt van composiet als de helderheid en de kleur samen zitten op 1 draad.  De helderheid zit er van 0->5 MHz, ongemoduleerd, de kleur zit er doorheen, gemoduleerd rond 4,43 MHz.
(welke naast rood, groen en blauw ook een los synchronisatie signaal nodig heeft). bij composiet haalt men de helderheid uit het groene composietsignaal.
Om uit composiet groen te halen, moet het composiete signaal eerst de decodeerd worden.  We hebben dan Y, U en V
Uit Y, U en V worden eerst R en B gehaald.  Daarna kan met R, B en Y samen G bepaald worden.  In de praktijk gebeurt dit (YUV -> RGB) wel allemaal in 1 stap.
>daarnaast werken tv's intern ook met YUV waardoor er niet nog een RGB -> YUV conversie plaats hoeft te vinden
Klopt.
> wat invloed op de kwaliteit zou hebben."
Het zou de TV ook duurder maken

Digitaliseren
2BGM: TVstudiotechnieken / 2004_2005 / Laatste aanpassing op 2006-06-25.
> de bitrate is gelijk aan de fs van de 3 kleurcomponenten x het aantal bits
> voor 422 dus 27x8=216 mb/s voor 8bit want 13.5+6.75+6.75=27
> voor 420 kom ik aan 20.25x8=162mb/s  want 13.5+6.75=20.25
> in de cursus staat echter 124bit voor 420
Je hebt een belangrijk gedeelte van de zin vergeten te lezen: "voor het actieve beeld"
Het gaat hier dus over 576 lijnen van de 625, en 53,333µs van de 64µs voor de lijntijd. 
Er wordt enkel met het actieve gedeelte geteld in dit geval, omdat als we het hebben over 4:2:0 en 4:1:1, we het hebben over het verwerken van beelden in computers, MPEG coders, ... Op dat moment wordt het gedeelte van het beeld in de onderdrukking immers niet verwerkt.
 
> de header bij sdti is dit de ruimte tussen eav en sav of is dit de ruimte
> boven de 100 ire of zijn dit gewoon extra bits opgenomen enkel voor
> transmissie of nog iets helemaal anders?
Op een SDTI verbinding wordt de (gecompreseerde) video in pakketjes verstuurd.  Een header is een beetje informatie dat vlak voor zo'n pakketje wordt gestoken.

> is er bij dct eigenlijk een dubbele weging? één vastematrix)( en één in te stellen door de gebruiker (schaal)?
Inderdaad, er is een vaste matrix, die eigenlijk het belang van de verschillende coëfficienten aangeeft, en een tweede die door de MPEG coder wordt gekozen in functie van de gevraagde compressierate, en de 'ingewikkeldheid' van het videobeeld.

> waarom heb je de 3e harmonische van een digitaal signaal nodig om voldoende stijle flanken te bekomen bij transmissie?
Als je het SDI-signaal opdeelt in de fourriercomponenten, dan bekom je een heel groot aantal harmonischen.
Als we het SDI signaal terug willen samenstellen uit deze componenten, dan blijkt dat we er minstens een 3-tal van nodig hebben om dit signaal terug te bekomen in een voldoende kwaliteit.

> vanwaar komen de waarden 0,701 voor Cr en 0,886 voor Cb, moeten we deze waarden en hun herkomst uberhaupt kennen? :-)
De waarde moet je niet van buiten kennen.  De grootteorde wel.
Ze zijn empirisch vastgesteld.  Ze zijn op een gelijkaardige manier bekomen als de waarden in de volgende formules bij NTSC:
V = 0,8777 (R-Y)
U = 0,493 (B-Y)
 
> p105 moet dit niet interframe zijn ipv intraframe (immers tijdredundantie)
Ik heb hier geen cursus met de paginanummers, dus ik weet niet waar het hier juist over gaat.
Een intrabeeld is een I-beeld: het is en beeld dat alle gegevens in zich heeft om gedecodeerd te worden.  Het maakt geen gebruik van tijdsredundantie.
Intrabeelden worden ook gebruikt in MPEG compressie.  Het zijn de I-beelden die de GOPS van elkaar scheiden.
 
> macroblocks
> 'de grote vd macroblocks is ahfhankelijk van de gekozen sampligstructuur' slaat dit op de fysieke grote (aantal pixels) of de grote van de informatie (aantal bits)
> maw pakt men steeds de opp van 4 lumabloks met dus minder data voor 420 codering of pakt men steeds 4 sampleblocks waarbij de opp van een makroblok voor kleurinfo dus 4x zo groot is als die van een makroblok voor luma maw gebeurt deze codering afzoderlijk voor y cr cb of gebeurt deze samen?
Een macroblock heeft steeds 4 DCT blocks, maw 16*16 luma samples.
Het aantal chromasamples dat er bij komt hangt af van de gekozen sampling: 4:2:2 - 4:2:0 - 4:1:1
De 'fysieke grootte' is dus steeds dezelfde, maar de hoeveelheid informatie kan dus verschillen.


Digitaliseren
1BGM: Videotechnieken / 2005_2006 / Laatste aanpassing op 2006-09-23.
3. Bij een digitaal component signaal stuurt men Y, k1(R-y) en k2(B-y) door. Voor wat staan de 2 factoren k1 en k2? Voor het digitaal uitvoeren van de gammacorrectie?
Heeft niets te maken met de gamma:
Als de waarden van de primaire signalen op 1 V worden genomen, zal het E'Y-signaal variëren tussen 0 en 1 V. E'R-E'Y zal als uiterste waarden +0,701 V en -0,701 V hebben voor verzadigd rood en cyaan. E'B-E'Y zal als uiterste waarden +0,886 V en -0,886 V hebben voor verzadigd blauw en geel. Om de top-top-waarden tot 1 V te beperken (-0,5 V tot 0,5 V) worden twee coëfficiënten bepaald:

zodat we krijgen:
CR = k1 (R'-Y')
CB = k2 (B'-Y')



Digitaliseren: Ey Eb Er
2BGM: TVstudiotechnieken / 2004_2005 / Laatste aanpassing op 2006-06-25.
op pag 78 in de cursus bij onderdeel digitaliseren staat er:
als de waarden van de primaire signalen op 1V worden genomen, zal het
E'y-signaal variëren tussen 0 en 1 V.
wat bedoel je met primaire signalen? en wat met E'y?
Met de primaire signalen bedoel ik R, G en B.
E'y, E'b en E'r zijn signalen die R, G en B voorstellen met een amplitude
van 1V.  Voor R, G en B is dat slechts 0,7V.


Notatie
1BGM: Videotechnieken / 2016_2017 / Laatste aanpassing op 2017-04-26.
er zijn een paar notities die ik niet begrijp bijvoorbeeld “OOH” en “FFH”
De index ´H´ wil zeggen dat het getal ´00´ hexadecimaal moet worden gelezen.
00H is 0 decimaal
FFH is 255 decimaal.


NRZ / NRZI
1BGM: Videotechnieken / 2006_2007 / Laatste aanpassing op 2007-05-26.
> - p. 242: Parallel transport: Wat bedoelt u precies met het NRZ signaal
> waar geen codering/scrambling (wat is trouwens scrambling?) is voorzien?
> En wat is dan het wezenlijke verschil met een seriële interface?
NRZ: Non return to zero: de bitjes worden doorgestuurd als een spanning
vb: "0"= 0V, "1"=5V

NRZI: Non return to zero, inverted: de bitjes worden doorgestuurd als een verandering:
"0"= op 0 of 5 volt blijven
"1"= van 0 naar 5V gaan of omgekeerd



NRZI
2BGM: TVstudiotechnieken / 2005_2006 / Laatste aanpassing op 2006-06-25.
Bij het leren van de cursus Studiotechnieken 2BGM (versie 4.0) heb ik een kleine bedenking gemaakt bij een tekening. Het betreft op pagina 74
onderaan de tekening ivm de Non Return To Zero Inverted Code. Ik moet deze code ook kennen voor de cursus Analoge en Digitale Technieken van uw
collega Dhr Sleeckx. Omdat ik zeker wou zijn heb ik even op internet gezocht (hoewel de informatie op internet ook fout kan zijn). Ik vond
onderstaande link op Wikipedia.org. http://en.wikipedia.org/wiki/Non-return-to-zero,_inverted
Daar staat een schematische voorstelling van de NRZI-code, en men heeft daar enkel een overgang (transition) bij een logische nul. In uw cursus
echter, op pag 74, staat net het omgekeerde, dat er namelijk een overgang is bij een logische "één".
Na opzoeking in de nota's van A&DT staat dat er ook een overgang is voor een logische "één" en geen voor een logische "nul".
Nu vraag ik me af of de fout niet op de bewuste link van wikipedia staat, of dat er nog niet geïn-verteerd is. Zo zie je maar dat zelfs een
encyclopedie van Wikipedia niet steeds 100% te vertrouwen is.
Ik ga ervan uit dat uw cursus juist is, en die van Dhr Sleeckx ook, en de pagina van Wikipedia fout. Klopt dat?

Er bestaat ook een NRZI systeem dat inverteert op een '0'.
Deze heet: Non Return to Zero Inverted on Space


Reclocking
1BGM: Videotechnieken / 2005_2006 / Laatste aanpassing op 2006-09-23.

-) Ik vroeg me af of reclocking gelijk is aan EQ en triggering+ het juist zetten in tijd. Of is reclocking alleen het juist zetten in tijd?

De naam doet alleen blijken aan het juist zetten in tijd maar in de uitleg staat bij recloking dat dit signaal OOK qua timing gecorigeerd word.

Reclocking op zich is het juist zetten in tijd van de flanken van het digitale videosignaal.  Het woordje 'ook' is inderdaad misleidend.  In de text voor volgend jaar heb ik het er al uit gehaald.



Sampling
2BGM: TVstudiotechnieken / 2001_2002 / Laatste aanpassing op 2006-06-25.
Hier begin ik alles wat door elkaar te slaan vrees ik: bij composietvideo is de samplingfrequentie 4x de kleurendraaggolffrequentie, en dus verschillend per norm, bij componentvideo is de frequentie voor alle normen 13,5 MHz, maar waarop slaat dan de benaming 4:2:2 ?  4 staat voor Y, 2 voor U en de andere 2 voor V, dat is dus component, en de samplingfrequentie van component ligt toch vast?  13,5 MHz is toch niet 4x de kleurendraaggolf van PAL (4,43 MHz)of van NTSC(3,58 MHz)?  Wat is dan het verband tussen de 4 uit 4:2:2 en 13,5 MHz?
De cursus (p97 in V3.0) is hierover niet echt duidelijk, want daar staat dat de referentie voor de 4 de kleurendraaggolf van NTSC is, maar 4 x 3,58 is toch niet gelijk aan 13,5?
Omwille van de eenvoud van ontwerp, en om het mogelijk te maken toestellen te gebuiken in zowel PAL als NTSC-omgevingen, is gekozen voor een gelijkaardige sampling in de twee normen.
De benaming van de samplingstructuren komt van het feit dat de samplingfrequentie voor de digitale signalen ONGEVEER 4 maal de kleurendraaggolf is.  Het is enkel een benaming, geen absoluut gegeven.


Sampling
1BGM: Videotechnieken / 2013_2014 / Laatste aanpassing op 2014-05-29.
Bij digitale video, pagina 236 versie LB V4.0, staat er bij de figuur onderaan: 6.25 MHz bij de switch. Moet dit niet 6.75 MHz zijn? De helft van 13.5 MHz.
Klopt, dit staat verkeerd in de cursus.

Sampling
2BGM: Videotechnieken / 2013_2014 / Laatste aanpassing op 2014-05-29.
Bij digitale video, pagina 236 versie LB V4.0, staat er bij de figuur onderaan: 6.25 MHz bij de switch. Moet dit niet 6.75 MHz zijn? De helft van 13.5 MHz.
Klopt, dit staat verkeerd in de cursus.

Servers
2BGM: TVstudiotechnieken / 2005_2006 / Laatste aanpassing op 2006-06-25.
p 130, configuratie van een play-out) U spreekt, onder de tekening, van 'servers', 'storage', 'file system controller', 'gateway', 'ui' & het netwerk. Maar op de tekening staan de file system controllers volledg vanboven. Dit zijn dus geen file system controllers als in 'disk-controllers', als in 'scsi/ide controllers'? Moet ik dit dan zien als een soort 'Media Management' systemen zoals beschreven op p213?en het 'storage subsystem' als 'video servers' (zoals die mediastream 1600 in de tekening op p212)?


De videoserver in dit voorbeeld is een configuratie van meerdere elementen.
Video I/O: dit is de box waar de video aansluitingen op gebeuren.  Deze heeft de video encoder (compressie) en decoder (decompressie) borden.
Storage: de units die de harde schijven hebben.  Deze zijn via een fiber channel netwerk met de Video I/O verbonden.
Gateway: Computer die het netwerk toegang geeft tot de storage van de server zodat ook andere zaken toegang hebben tot de storage van het server systeem.  De gateway kan bv montagesystemen, VOD (video on demand) encoders verbinden met de storage.
UI: user interface
File System Controller: omdat de data op units staat die ergens op het netwerk hangen, moet er ook minstens 1 systeem zijn dat weet waar welke gegevens staan.  Dat is de FSC.
Al deze zaken zaten vroeger samen in 1 systeem: de videoserver.  Omdat de Video I/O het meest typische is aan een serversyteem, wordt dit ook wel eens de video server, of beter server node genoemd.
Media management is een systeem dat van alle media (videoclips, audiofragmenten, foto's, ...)  binnen in een configuratie (dus niet enkel op de videoservers) weet waar deze te vinden zijn, wanneer ze zijn opgenomen, waar ze voor bedoeld zijn, ...
De Mediastream 1600 is een volledige videoserver.  Deze heeft ook de nodige storage aan boord.  Via de 'connect plus' (de gateway) staat dze in verbinding met een groter netwerk (WAN) met een andere gateway die verbinding geeft met de networked storage.  Op deze laatste storage hanen dan weer server nodes.


Voordelen
1BGM: Videotechnieken / 2005_2006 / Laatste aanpassing op 2006-09-23.
2. Wat is het nut van een tv-toestel met interne digitale verwerking in een analoge omgeving?
Digitale toestellen zijn eenvoudiger te onderhouden. Gemaakte instellingen verlopen niet met de temperatuur van de onderdelen of met de tijd.
Deze stabiliteit vermindert de kostprijs van de toestellen, en er moeten minder mensen worden ingezet hierdoor voor de aanmaak/afregeling van een TVtoestel.
Voor analoge toestelen heeft men ook nauwkeurigere voedingen nodig die de verschillende voltages in de TV aanmaken.
Bij digitale TV's zijn er ook extra mogelijkheden: PIP / Freeze / ...