Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties

Sony heeft een nieuwe hd-camcorder ge´ntroduceerd met zeer kleine afmetingen. In het hoogste beeldformaat, 1080i, kan op de meegeleverde 4GB-geheugenkaart ongeveer vijfentwintig minuten aan beeldmateriaal opgenomen worden.

De Sony HD TG3E, zoals de nieuwe Handycam in Europa gaat heten, heeft een titaniumbehuizing en is volgens Sony met zijn formaat van 32mm diep, 119mm lang en 63mm breed de kleinste hd-camcorder ter wereld. Met de aanprijzing 'full hd' sjoemelt Sony een beetje, want de HD TG3E neemt de maximale filmresolutie van 1920 bij 1080 pixels met interlacing op. Foto's kan de zakvest-hd-camcorder van Sony opnemen met een totaal van 4 megapixels. De HD TG3E bevat verder een 10 maal optische zoomlens van Carl Zeis en een 1/5" grote 2-megapixel cmos-sensor.

Audio neemt de HD TG3E op in 5.1-formaat en de ingebouwde microfoon kan 'inzoomen' als het gefilmde onderwerp verder weg staat. Net als bij de nieuwste fotocamera's kan de kleine camcorder ook gezichten herkennen, zowel bij foto's als bij video. Niet alleen worden in deze modus optische instellingen geoptimaliseerd, maar bij detectie van gezichten worden deze met meer bits geŰncodeerd voor een duidelijker beeld. Ook kan onder- of over-belichting automatisch worden aangepast.

De Sony HD TG3E is beschikbaar vanaf mei 2008 en kost 899 euro. Bij die prijs zit een 4GB Memory Stick Pro Duo inbegrepen waarmee in de 1080i-resolutie ongeveer 25 minuten gefilmd kan worden. In Amerika is een reiskit voor 100 dollar leverbaar met daarin een extra batterij, een reisoplader en een -tasje. Een speciale carrying case die 50 dollar moet gaan kosten, zagen we al samen met een aantal specificaties bij de onlangs gehouden perspresentatie van Sony. Op de Japanse site van Sony staat een video waarop de hd-camcorder te zien is.

Sony HD TG3E kleine hd-camcorder
Moderatie-faq Wijzig weergave

Reacties (44)

Allemaal wel leuk deze discussie,

Maar je hebt te maken met het oplossend vermogen (MTF) van de lens en na fyquist filtering en compressie blijft er uberhaupt maar iets van 600 beeldlijnen over. En dan is 1440 pixels meer dan zat.

Kijk bijvoorbeeld maar eens hier: http://www.panavision.co....loads/genesis_project.pdf

Hier zie je dat zelfs dit soort camera's op 1440 slechts op 55% MTF zitten. 100% MTF met 1080x1920 pixels is alleen op de computer haalbaar en zeker niet met camera's met optische lenzen.

Laat staan deze mini camcorder, met al zijn compressie en kleine lens.
Vind ik het nog wel meevallen dat het interlaced is.
Heb zelf een Sony 60gb HD cam 1080i maar als je daar de volledige resolutie van bekijkt is het 1440x1080i Dus word je even een hele rij pixels door je neus geboord.
Volgens de bron

http://gizmodo.com/375454...allest-1080p-hd-camcorder

Is het 1080p.

4GB in 25 minuten is +/- 2,66 Mbyte/sec. Dat is ongeveer het dubbele van m'n Panasonic die ook in AVCHD opneemt maar dan op 1080i. Persoonlijk vind ik interlaced nogal k*t, het geeft kwaliteitsverlies en hinderlijke strepen bij het omrekenen en afspelen op de computer. Als je daarintegen de camcorder het op de tv laat afspelen heb je er vrijwel geen last van. Ook heb je een redelijke PC nodig om realtime deinterlacing te kunnen doen, m'n AMD 2Ghz Dualcore haalt het net niet, m'n Intel core 2 dua 2.66 Ghz wel.

Ik neem aan dat 1080p decoderen op de PC ook nogal wat van de processor gaat vragen.
Als het MPEG-4 AVC is kunnen alle moderne videokaarten de processor daar een handje bij helpen (als de software het wel ondersteunen). Voor VC-1 geldt dit in iets mindere mate maar het codec vraagt ook iets minder. MPEG-2 vraagt nog minder dus dit moet op een niet al te oude PC lukken. Bij een ongecomprimeerd formaat is de CPU niet meer de bottleneck.
Ik neem aan dat 1080p decoderen op de PC ook nogal wat van de processor gaat vragen.
Puur software matig decoderen van 1080p vergt inderdaad enorm veel van de CPU.

ffdshow-tryouts heeft minimaal een AMD X2 5000+ / Intel E6550 nodig als de bitrate boven de 10Mbps zit en er zware compressie is gebruikt (de techniek bijvoorbeeld waarbij de decoder een keyframe van de toekomst krijgt en dan moet terugrekenen voor het huidige beeld).

CoreAVC Professional kan wegkomen met een AMD X2 4000+ of Intel E2180.

Echter een goedkope ($30-$40) nVidia GeForce series 8 met PureVideoHD of AMD/ATi series 3000 videokaart met AViVo versnelling is genoeg om te assisteren bij het decoderen, dat de CPU uit zijn neus kan zitten peuteren dan.

Ter vergelijking een GeForce 8600GT kaartje van $75 decodeert een 25Mbps H.264/AVC bij mij met 7% CPU gebruik op een AMD X2 4000+. Zelde filmpje was 90-100%+ met ffdshow-tryouts rev1902 en vele frames werden gedropt, en 60-100% met CoreAVC als ik PureVideoHD uitschakelde (kon het ook niet altijd bijbenen in de snelle scenes).
ben op de site van sony gaan kijken, daar stond wel degelijk i niet p :( jammer dus, vind dit eigenlijk enorm smerig van sony, ze claimen de kleinste full HD recorder te hebben maar moeten daarvoor wel sjoemelen met de termen.
Ze mogen gewoon niet de term FullHD gebruiken, dat verpest alleen maar weer de markt en consumenten zijn er weer de dupe van. Ik hoop dan ook dat er snel een rechtzaak in Amerika wordt gespannen, voordat het weer allemaal mis gaat.

Zoals recent:

- GB vs GiB hardeschijf
- 6-bits vs 8-bits LCD

FullHD = 1080p en niks anders moet gewoon de term gaan gebruiken, dus Sony marketing moet eens stoppen daarmee (ze zijn echt niet de enigste, maar wel vaak).
Ze zaten toen ook te sjoemelen met die "Full-HD" beamers, de prijs was echt laag (tussen de 700 en de 1000 euro).
Ik snap het negatieve gedoe over 1080i eigenlijk niet zo. De bandbreedte is even groot als bij 1080p.

1080i = 50 halfbeelden
1080p = 25 hele beelden

Het enige nadeel van 1080i is dat wanneer je het niet goed weergeeft je strepen gaat zien. Interlaced is een slimme truc om met dezelfde hoeveelheid bandbreedte een betere oplossing te bieden voor snelle bewegingen. En daarin is het superieur aan progressive.
Interlaced is juist verschrikkelijk bij snelle bewegingen, je krijgt dan een trap-effect doordat de helft van de beelden een stukje verschoven is. (kijk maar eens bij het eerste voorbeeld wat ik me kon herinneren rond 0:20.
Heb je we eens een 1080p TV gezien met 1080i en 1080p? ik heb er eentje hangen en het verschil is duidelijk (en 1080p is veel mooier).
Het gaat zelf zover dat ik mijn Xbox 360 liever op 720p zette dan op 1080i, omdat de eerste mooier was (toen ik nog geen full-hd TV had)
Je hebt het over het weergeven van interlaced materiaal op een progressive display. Dat kan kam-effecten geven doordat de de´nterlacing niet altijd even goed werkt. Opzich is er echter niets mis met interlaced (bij tv ben je niet anders gewend) zolang het maar goed weergegeven wordt. Op een progressive display is het natuurlijk beter ook progressive materiaal weer te geven.

Wat deze camcorder betreft zou ik gewoon op 720p filmen. Groot kans dat er optisch toch niet zoveel overblijft van die 1080 beeldlijnen en tenzij je een beamer gebruikt of een >55" scherm, zie je in de meeste situaties geen verschil tussen 720 en 1080 beeldlijnen bij een normale kijkafstand van een meter of 3.
Precies !

Interlaced afspelen op een beeldbuis (die eerst de even en dan de oneven lijnen weergeeft) ziet er gewoon goed uit ! Progressive mits ondersteund kan ook netjes op een beeldbuis... maar volgens mij is er niet 1 plasma/lcd/beamer die zijn beeldlijnen om en om weergeeft... die dingen zijn altijd progressive (1 frame in 1x neerzetten en dus niet 2x een half (even en oneven) field per seconde zoals de "normale" tv's)
Speel daar dan ook geen interlaced op af want dan moet je met de trukendoos aan de gang om het kam-effect tegen te gaan ..

Het mooie van interlaced is dat de resolutie hoger "lijkt" (optisch bedrog). De commodore amiga kon dit ook. Door twee beeldpunten om en om te laten knipperen leek het of er 1 in het midden stond. Het was supermooi voor die tijd alleen flikkerde enorm maar daar had je weer "flicker fixers" voor.

Zo ziet een originele pac-man (beeldbuis) er rond en wollig uit. Ga dit maar eens op mame draaien op je tft'je (progressive) en het is gelijk legoland..... blok blok blok....

zie ook http://nl.wikipedia.org/wiki/Interlaced_scanning

[Reactie gewijzigd door hatex op 4 april 2008 10:31]

Interlaced afspelen op een beeldbuis (die eerst de even en dan de oneven lijnen weergeeft) ziet er gewoon goed uit !
Het is alleen zo jammer dat er bijna geen beeldbuis schermen meer worden gemaakt en CRT's@1080i is in Nederland en ondertussen de meeste andere landen ook amper (meer) aan te komen.

99.9% van de nieuwe HDTV schermen waar dan ook ter wereld is progressive.
Het mooie van interlaced is dat de resolutie hoger "lijkt" (optisch bedrog). De commodore amiga kon dit ook. Door twee beeldpunten om en om te laten knipperen leek het of er 1 in het midden stond.
Dat is geen optisch bedrog. De resolutie -is- hoger in vergelijking met een progresive beeld met de halve resolutie en zelfde refresh. Bij progressive 320x256@50hz vs interlaced 320x512@50hz, is bij de 2de de resolutie daadwerkelijk hoger, alleen elke beeld lijn wordt maar de helft van het aantal keren gerefreshed, d.w.z. hier 25 keer per seconde in plaats van 50 keer. De techniek van interlacing gaat het knipperen echter juist iets tegen bij deze lage refresh. Het effectief equivalente progressive 320x512@25hz knipper namelijk -veel- sterker.

Om progressive te maken ging Amiga overigens uit van een interlaced beeld, en verschoof het even frame in tijd zodat de lijnen exact over de oneven lijnen heen vielen.
Door twee beeldpunten om en om te laten knipperen leek het of er 1 in het midden stond.
Hmmm... dat was niet echt zo...
Zo ziet een originele pac-man (beeldbuis) er rond en wollig uit. Ga dit maar eens op mame draaien op je tft'je (progressive) en het is gelijk legoland..... blok blok blok....
Je haalt de dingen een beetje door elkaar. Dat heeft niets met het verschil interlace/progressive te maken. Pac-man was namelijk helemaal niet interlaced. -verreweg- de meeste arcade games zijn ook helemaal niet interlaced.

De blokkerigheid die je ziet op je moderne scherm heeft te maken met de lage nauwkeurigheid van het CRT kanon en de hoge dotpitch van oude schermen. Pixels werden hierdoor gedeeltelijk over elkaar heen geschoten, waardoor een smoothing effect ontstond dat wel iets weg heeft van een gausian blur. De aanwezige zwarte scanlines (ruimte tussen de beeldlijnen die in de low-res modes van een scherm niet gebruikt wordt) werd ook geraakt door het CRT kanon en gaf de indruk van een iets hogere resolutie.

Moderne schermen, met name LCDs, zetten pixels -exact- neer EN Mame vult zonder smoothing filter de scanlines op door het verdubbelen van de pixels. Je kunt het effect van de oude CRT's benaderen door diverse smoothing/blurring filters in combinatie met kunstmatige zwarte scanlines.
"99.9% van de nieuwe HDTV schermen waar dan ook ter wereld is progressive."

Dat was dus nou precies mijn punt.... interlace heeft dan daar ook geen zin...

"Dat is geen optisch bedrog."

Dus wel: In interlaced signal, every second field is drawn at half-a-scanline offset. This creates an illusion of more vertical resolution than there actually is. The adjacent interlaced fields are seen stitched together, as if they formed a full-resolution frame.

In non-interlaced signal, there is no half-line offset. The corresponding scanlines in adjacent fields get drawn in exactly in the same places. Or more pedantically: what were formerly known as "fields" have now become (progressive) frames.

The advantage of a non-interlaced mode is that it is flicker-free. Since all fields (and their scanlines) get drawn on the same location, there is no interlace flicker. The image is very stable and clear.

The disadvantage of a non-interlaced mode is that the perceived vertical resolution is only a half of what it seemed to be in the respective interlaced mode.

"De resolutie -is- hoger in vergelijking met een progresive beeld met de halve resolutie en zelfde refresh. Bij progressive 320x256@50hz vs interlaced 320x512@50hz, is bij de 2de de resolutie daadwerkelijk hoger, "

Logisch je vergelijkt twee verschillende resoluties : 1080i zal er ook beter uitzien dan 480p

" alleen elke beeldlijn wordt maar de helft van het aantal keren gerefreshed, d.w.z. hier 25 keer per seconde in plaats van 50 keer."

Ja dat is bij een standaard tv hetzelfde voor zowel interlaced als progressive, zo'n ding doet ALTIJD 50 fields per seconde. Hij kan namelijk niet eens in 1 x een heel frame neerzetten in 1/50 seconde. De officiele PAL-B/G standaard definieeert trouwens alleen maar interlaced signalen. Als zo'n tv het eerste oneven veld heeft neergepoot gaat ie dus het tweede even veld neerplanten wat in feite dus 1/50 seconde later is opgenomen. Als ie een progressive beeld neerzet pakt hij ook de eerst de oneven en dan de even beeldlijnen alleen zit daar dan geen tijdsverchil tussen. Interlaced lijkt daarom een hogere resolutie te hebben op " oude / standaard " tv's zie hier : http://lipas.uwasa.fi/~f76998/video/modes/

"De techniek van interlacing gaat het knipperen echter juist iets tegen bij deze lage refresh"

Jij hebt duidelijk geen amiga gehad, dat ding flikkerde als de ziekte. Waar waren die Flicker Fixers dan voor ? ==> The problem is the following: In order to reach a doubling of the vertical dissolution (e.g. of 256 to 512 lines), the Interlaced mode must be used with the Amiga. Only 2 times 25 half-images per second are spent (instead of 1 frame 50 times per second), which are shifted in each case alternating on normal height and afterwards a half line '' vertically. The vertical dissolution doubled, however at expense effectively on 25 cycles per second halved vertical frequency. An Amiga in the Interlaced mode flickers thus strongly.

" Pac-man was namelijk helemaal niet interlaced. -verreweg- de meeste arcade games zijn ook helemaal niet interlaced."

Klopt pac-man gebruikt een standaard arcade resolutie op standaard (raster) tv's

HORIZONTAL VERTICAL
Scan Frequency: 15.72 KHz Scan Frequency: 60.0 Hz
Scan Line: 456 Pixels Screen: 262 Lines
Resolution: 336 Pixels Resolution: 240 Lines
Clock Freq: 7.16 MHz

maar wordt wel weergegeven op een tv die in principe alleen maar interlaced weergeven in tegenstelling tot monitoren die voor computers bedoeld zijn....... die kunnen meestal alleen progressive... (en kunnen vaak de 15.72 Khz niet aan)

" Je kunt het effect van de oude CRT's benaderen door diverse smoothing/blurring filters in combinatie met kunstmatige zwarte scanlines."

Hoe je het ook doet ik heb nooit dezelfde look and feel gekregen met mame en een tft, als met het origineel....
Betere voorbeeld is rond 1:10
Nee hoor, het aantal (halve of hele) beelden per seconde is niet gespecificeerd in de termen 1080i of 1080p.
In jouw geval is de bandbreedte even groot maar als je beide op 25 of 30 of 50 zet is 1080p dubbel zo groot.
Ok, om het heel zuiver te houden:

1080i50 gebruikt dezelfde bandbreedte als 1080p25.

Alleen 1080p50 is uiteraard superieur maar voor zover ik weet wordt dat nog nergens toegepast. En ook niet ondersteund door monitoren die nu verkocht worden als '1080p'.
De meeste 1080p schermen zijn op 1080p60, waarvan de meeste weer 1080p50 aan kunnen, en sommigen 1080p24.
1080i schermen kom je eigenlijk alleen tegen bij oudere CRT HD tvs.
Draai je 1080i op een 720p scherm, dan gaat hij downscalen, en draai je 1080i op een 1080p scherm, dan mis je de helft van je oplossende vermogen en loop je 1 frame achter in beeld door de i->p conversie stap.

Het meeste beeldmateriaal op 1080p is echter weer wel 1080p24. (BluRays e.d.)

Maar om ff heel simpel te zijn: 1080i is geen 1080p en geen full HD, hoe je het ook draait.
Maar om ff nog simpeler te zijn :

jwvirtual heeft gewoon gelijk alleen is er geen lcd/beamer of ander ( progressive )apparaat die het interlaced beeld op de juiste wijze weer kan geven....
25 minuten opnemen is dus 3 keer niks. Dan heb ik liever een grote HD erin (niet groot van fysiek formaat natuurlijk). Als je op vakantie gaat heb je dus een berg extra kaartjes nodig welke ook niet de goedkoopste zijn (zo'n 30 euro per 25 minuten dus).
Dat hangt er een beetje vanaf... ik stam nog uit het 8mm tijdperk en daar had je erg dure filmpjes van 2 a 3 minuten (ik herinner me niet hoe lang ze exact waren) en daar was je dan erg zuinig mee zodat je je beperkte tot de essentie. Als je op die manier hebt leren filmen ga je geen ellenlange nietszeggende beelden filmen waar je iedereen mee gaat vervelen achteraf. Als je achteraf nog wil monteren is het iets anders natuurlijk maar veel mensen doen dat niet.
Harddisks zijn hip en in, maar vol is vol, wisselen is er niet bij. Daarom DV tapes alom!
mwa, iets waar veel mensen geen rekening mee houden: liever losse kaartjes dan een ingebouwde HDD, want gaat je camera kapot om 1 of andere reden dan is de HDD misschien ook niet meer te redden, wordt je camera gejat dan ben je al je opnames kwijt.. Dus losse kaartjes is dan makkelijker omdat je dan in iedergeval (tenzij je zo dom bent om alles bij elkaar te bewaren) niet al je opnames kwijt bent.
Mijn camera neemt in 720p50 op en in de hoogste kwaliteit past er bijna 3 uur film op een 16GB kaartje. Die heb je voor 70 euro.

Een harddisk maakt zo'n apparaat groter, zwaarder en gevoeliger voor schokken. Verlies van de camera betekent afscheid nemen van al je opnames. Geheugenkaartjes kun je legen op een imagetank.
Fijn, dat de consument zo wordt bedot.
Ik vindt 1080i ook zoiets:
In feite wordt het beeld per oneven / even lijnen opgebouwd, zodat het beeld wat zal strepen bij snelle bewegingen. 1080P is gewoon echt kwaliteit, 1080i noem ik nepkwaliteit.
1080i is gewoon een standaard, wordt dus niemand bedot

[Reactie gewijzigd door gbh op 3 april 2008 23:41]

is een standaard maar geen standaard voor full HD, daar is slechts 1 resolutie voor van toepassing 1080P
Er staat toch nergens "Full HD"?
1080i is gewoon net als 720p de HD standaard voor HD-Broadcasting (de TV-wereld).
Sony claimt het zelf wel, kijk bv in de bron "Sony's calling its HDR-TG1 Handycam the world's smallest "full HD" camcorder," 1080i is inderdaad gewoon een standaard maar zoals ik al zei, niet voor Full HD, die term wordt heel vaak onterecht gebruikt.

edit: had eigenlijk ook gewoon het artikel nog eens kunnen doornemen want het staat hier op tweakers ook "Met de aanprijzing 'full hd' sjoemelt Sony een beetje" sony claimt het dus zelf.

[Reactie gewijzigd door Robby517 op 4 april 2008 14:24]

In feite wordt het beeld per oneven / even lijnen opgebouwd, zodat het beeld wat zal strepen bij snelle bewegingen. 1080P is gewoon echt kwaliteit, 1080i noem ik nepkwaliteit.
Het ligt iets subtieler dan dat...

Bij interlace is het heel goed mogelijk dat het even en oneven frame van exact dezelfde picture komen. 1080i@fps is dan identiek aan 1080p@30fps.

De kwaliteit wordt pas bagger als de 2 frames in tijd verschillen van elkaar. -ALS- deze camera dat doet dan is het inderdaad nepkwaliteit en zou iedereen hier met een grote boog omheen moeten lopen. Maar, indien dat niet zo is, dan is interlace eigenlijk niets meer dan een (onzinnige, dat wel) manier om beelden intern op te slaan.
Koop beter een grotere. Kwa behuizing. Dat houd veel stabieler vast waardoor je een minder zeeziek wordt. Die kleine dingen houden gewoon niet makkelijk stabiel vast

[Reactie gewijzigd door switchboy op 3 april 2008 22:44]

Helemaal gelijk. Alles moet maar kleiner, en hierdoor kun je het apparaat niet meer stil houden.
Maar een kleinere neem je gemakkelijker (en dus vaker) mee.
Het eerste waar ik aan denk bij het zien van deze camcorder is Sanyo. Ik vind het een beetje gejat van hun modellen camcorders. Verder zijn die van Sanyo echter wel wat strakker vormgegeven, minder vierkant.
Foto's van 4 megapixel worden dus ook met een 2 megapixel sensor gemaakt. Zou dat volgens hetzelfde interlaced principe als bij de video gebeuren?
Hoezo dat
Misschien bij thrust cameras ofzo
maar echt niet bij beetje goede cameras
Wat jij bedoelt is interpolatie dan worden tussenliggende pixels berekend door de omliggende pixels via een formule samen te voegen (gemiddelde zou in feite kunnen)

Interlaced is wat anders
Inderdaad, een camera welke groter is met een goede lens zal je veel beter van dienst zijn dan een klein priegelding met 'zogenaamd' goede kwaliteit.... bla bla bla... Ik zou personlijk een Panasonic nemen met het 3CCD systeem... een vriend van mij liet me zijn beelden zien en woooow! op zijn plasma tv leek het nog beter dan een dvd...
Wordt er maar 4gb bijgeleverd? Op de infosite staat 8gb memorystick "included"...
Worden we in de EU weer genakt? :(

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True