Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel komt met pc op creditcardformaat

Door , 164 reacties

Intel brengt halverwege dit jaar de Compute Card uit. Dit is een pc met de grootte van een creditcard die via een aangepaste usb-c-aansluiting met allerhande apparaten verbonden kan worden. De chipfabrikant gaat de kaart-pc van chips tot aan de Core-processors van Kaby Lake voorzien.

De Intel Compute Card heeft een behuizing van 94,5x55mm met een dikte van 5mm. Hierin zitten de processor, het werkgeheugen, opslaggeheugen en wifi- en bluetooth-connectiviteit verwerkt. Fabrikanten kunnen apparaten ontwikkelen met een speciale sleuf waar de Compute Card ingestoken kan worden.

Vervolgens kan de kaart via een 'usb-c plus extension' verbinding maken met zo'n apparaat en daar als centraal computingsysteem dienst doen. Via de interface kan usb, pci-e, hdmi en displayport verlopen. Intel denkt aan toepassing in onder andere interactieve koelkasten, kiosksystemen, beveiligingscamera's en iot-gateways.

Het bedrijf heeft samenwerkingen met HP, Dell, Lenovo en Sharp gesloten. Halverwege 2017 moet mini-pc uitkomen, maar voor die tijd, in het tweede kwartaal, maakt Intel de prijzen bekend. Intel werkt al langer aan het vervaardigen van kleine pc's, zoals de Compute Stick en NUC's.

Reacties (164)

Wijzig sortering
De Apple II had een formaat van ongeveer 45x38x12cm

Deze 'PC' van Intel past daar bijna 400 keer in. En een Intel Core M3 (turboclock) is puur qua MHz 2200 keer sneller als de CPU in de Apple II. En waar de Apple II CPU (MOS 6502) 3500 transistors aan boord had heeft de M3 er 1,3 miljard.

Ongelofelijk hoe ver we zijn gekomen eigenlijk. Iets waar je (heel) vroeger een complete woonkamer voor nodig had kun je nu kwijt op een creditcard. En dan is die creditcard ook nog eens een paar factoren sneller. Lang leve de toekomst!

[Reactie gewijzigd door SomerenV op 5 januari 2017 22:48]

Maar die apple ][ is en was wel binnen een paar sekonden opgestart ! Dat zie ik de huidige OS'en nog steeds niet doen, cold boot en een werkend os binnen pakweg 5 sekonden...

Ah, it brings back memories, dung beetles, start trek, lemonade, lotsa wasted time :)
https://wiki.archlinux.or..._performance/Boot_process

Kan prima in nog geen vijf seconden, je gebruikt waarschijnlijk gewoon het verkeerde OS. Daarnaast zal er waarschijnlijk ook wel wat anders op komen te draaien dan Windows.
Om de claim van True hieronder wat uit te diepen, mijn Intel NUC (SSD) boot in 1 seconde (vanaf de firmware, reken je de firmware mee zit je aan de 4 seconden). Vanaf koud naar login scherm (ja, dat heb ik), duurt gemiddeld ~2 tot 3 seconden.

$ systemd-analyze komt met 5.1266 seconds terug, dat is van koud naar desktop
op een RFID zit een complete micro computer (echte micro computer en geen apple 2 die ook wel een micro computer werd genoemd) en start in een onderdeel van een seconde op...
Daar zit hoogstwaarschijnlijk ook geen besturingssysteem op maar waar direct in C(++) en een paar lichte library's de registers, uitgangen en dergelijke worden aangestuurd.

[Reactie gewijzigd door carbidsjitter op 6 januari 2017 11:09]

In dat geval kan je beter een arduino of iets dergelijks gebruiken. Voordeel van een besturingssysteem is o.a. dat meerdere programma's tegelijk kunnen draaien
Op een RFID zit een microcontroller die het doet met de via radiogolven binnenkomende energie. Maar wat heeft dat hier mee te maken?

Zo'n ding als dit vind ik pas interessant worden als het ook toegangelijke hardware is oftewel niet Windows-only. Dat moet ik nog zien.

[Reactie gewijzigd door blorf op 6 januari 2017 12:34]

Zoiets noemt met een MCU (Micro Controller Unit), geen micro computer. Een MCU bevat minimaal een kleine CPU, een paar kB ram en rom en wat peripherals. Het programma wordt op zo'n kleine MCUs vrijwel altijd direct door de hardware 'bootloader' gestart of door een simpele bootloader zoals bekend van de arduino's. Het programma is ook vrijwel altijd geschreven op een manier dat het exact dit systeem correct kan initialiseren, als je iets wijzigt in de hardware dan werkt de software niet.

Dit is heel iets anders dan een PC, die eens begint met het kijken welke hardware hij eigenlijk heeft, deze checken, kijken of er bootable devices zijn, het OS starten welke vele MB's aan data in het geheugen moet zetten en verwerken, etc. En dit is nog heel kort samen gevat.
Maar die apple ][ is en was wel binnen een paar sekonden opgestart ! Dat zie ik de huidige OS'en nog steeds niet doen, cold boot en een werkend os binnen pakweg 5 sekonden...

Ah, it brings back memories, dung beetles, start trek, lemonade, lotsa wasted time :)
Mijn Windows 10 machine (met SSD) is ook gewoon binnen een paar seconden klaar voor gebruik. En daar kan ik een stuk meer mee ;)
ChromeOS ... Van koud naar werkende desktop onder 5 seconden.

[Reactie gewijzigd door RielN op 6 januari 2017 11:25]

Een complete woonkamer? Er staat ergens op internet een mooie vergelijking tussen een Snapdragon 810 (pin me er niet op vast) en een 1950 computer (geleverd op een vrachtwagen met trailer). Om het equivalent van een Snapdragon 810 te krijgen is de benodigde oppervlakte, wanneer je ze naast elkaar zet, 20% groter dan Noord Amerika groot is.
Woonkamer?

Wat dacht je van industrie terrein t.o.v. ENIAC
https://nl.wikipedia.org/wiki/ENIAC


Hier is een leuke pagina over schaalverkleining:

http://pages.experts-exchange.com/processing-power-compared/
"I fear the day that technology will surpass our human interaction. The world will have a generation of idiots." Einstein.

Zo geweldig is vooruitgang in technologie nou ook weer niet imho. Naast de prachtige dingen die wij uitvinden zijn er ook technologische gevaren die wij ook ontwikkelen, zoals wapens etc. 200 jaar geleden vochten we nog bij wijze van met zwaard en boog, tegenwoordig kunnen we een raket van 200km afstand nauwkeurig door iemands voordeur laten invliegen.
Technologische vooruitgang an sich is niets mis mee. Het is aan de mens om de vooruitgang voor het goede te gebruiken.
Zo slim en wijs is 'de mens' helemaal niet. De massa bepaalt en pas als het schaap verdronken is, dempt men de put zoals dat heet. En soms is een technologische vooruitgang zelfs niet meer terug te draaien omdat het niet weg te denken is, zie internet, of om even in te haken op oorlogvoering: JSOC met zijn drones. Desondanks zijn er steeds meer mensen die hier de nadelen van ondervinden - wat overigens niets afdoet aan de voordelen.

Die zelfrijdende auto, die wordt pas echt 'veilig' als er eerst een paar grote ongelukken gaan gebeuren die niemand ooooit had kunnen voorspellen. Je ziet het al met Autopilot van Tesla en dat is zeker niet het laatste incident. Mark my words :)

[Reactie gewijzigd door Vayra op 6 januari 2017 12:31]

Slim wel, op wijsheid lopen we een beetje vast vaak...
Helaas zijn slimme mensen ook niet in de meerderheid. ;(
hah, en dat is ook een puntje inderdaad.
Eens. Daarom heb ik ook nooit beweerd dat 'de mens' slim nog wijs is ;)
Ik zeg alleen dat een (verkeerd) gebruik van een technologie nog niet betekend dat de initiŽle technologische vooruitgang verkeerd was. Een drone kan ook een AED naar een hulpverlener brengen, maar onder een drone kan je ook wapens hangen. Terugdraaien is ook nooit nodig. Sommige dingen hoeven we niet te gebruiken (een wapen onder een drone hangen) en andere dingen moeten we juist doorontwikkelen (zelfrijdende auto's). Dat daar af en toe een dode bij valt, dat zou zeker kunnen, maar het doel is om aan het eind jaarlijks minder doden te hebben.
Daarnaast zou je zelfs nog kunnen beargumenteren dat drones veiliger zijn dan voetsoldaten erheen sturen. Naast de veiligheid van de soldaten zelf, moeten soldaten ook vaak met minder informatie sneller beslissingen nemen, waardoor er vaker onterecht op burgers wordt geschoten. Dat een drone ook een heel huizenblok neer kan leggen is weer een menselijke fout, te grote bom of verkeerde huis gekozen. Daar kan de technologie drone dan weer niets aan doen.
"We are a generation of idiots. Smart phones and dumb people"

Technologie word inderdaad steeds beter maar ik vrees dat mensen steeds meer als kinderen worden behandeld. Kwam recent nog dit tegen: https://www.indiegogo.com...robot-family-technology#/ .
Gelukkig komen er, door de geschiedenis heen, steeds minder mensen door geweld om het leven; hoe sterk sommige media dit beeld ook proberen te bestrijden.
Om eerlijk te zijn zorgt de huidige technologie er voor dat wapens en oorlogen een stuk humaner zijn. Slagvelden in de tijd van zwaard en schild waren gruwelijk en er vielen veel te veel slachtoffers.
Humaner? Juist dus NIET humaner. Iemand doden moet niet makkelijk gaan door ergens op een paar duizend kilometer afstand met een drone iemand plat te bombarderen. En ik denk dat die bombardementen veel inhumaner zijn dan die zwaarden en schilden van vroeger.

Tegelijkertijd lijkt het me sterk dat we een "oorlog" vervangen door een potje Command and Conquer. Dus ik durf te beweren dat vechten en dus ook oorlog hoort bij het Humaan zijn. En gelukkig hebben we daar ooit wat regels voor verzonnen, die natuurlijk overtreden worden, maar de intentie is er.
Ik kijk met enige verbasing naar deze discussie. Als ik hier had begonnen en naar boven had gelezen had ik net zo verbaasd geweest...... wat heeft oorlogsvoering, de waarde van mensen te maken met de pc op creditcardformaat.? |:(
Het citaat van Albert Einstein hierboven. Ik weet niet van wanneer dat citaat is maar deze man heeft in twee wereldoorlogen gezien wat er met de nieuwe kennis gedaan werd: Gifgas en de atoombom. Beiden waren toen ook hight-tech
Als we VortexSB hierboven strickt volgen dan is de meest humane manier om oorlog te voeren het gelijk afschieten van ons complete kernwapenarseaal.

Bijkomend voordeel is dan dat we er gelijk vanaf zijn. Sneller kan een oorlog niet beŽindigd zijn.

In zeker opzicht heeft VortexSB echter ook gelijk.
De verwondingen opgelopen met blanke wapens zoals zwaard waren vaak ernstig en ook op niet dodelijke verwondingen volgde meestal gangreen waaraan men dan enkele dagen later bezweek.

Daarbij bestonden reguliere legers nog niet, en maakte men meestal gebruik van huurlegers en de buit van het plunderen behoorde bij de beloning. Berucht waren de zwitserse landsknechten uit de 15e en 16e eeuw (Hun strategie was de vernietiging van de vijand en niet zijn uitputting. De landsknechten werd verboden gevangenen te maken. Wie in hun handen viel wist dat de dood wachtte.) maar ook de Hessen (die vochten in ItaliŽ en de Spaanse Nederlanden, voor Zweden tegen Rusland, voor de Engelsen tijdens de Jacobietenopstand, in de Amerikaanse vrijheidsoorlog en aan de kant van Beieren in de Oostenrijkse successieoorlogen.)

De komst van nationale legers heeft het plunderen en verkrachten van de burgerbevolking vrijwel doen verdwijnen.

[Reactie gewijzigd door BeosBeing op 6 januari 2017 10:49]

Moet je de discussie vanaf de originele parent lezen dan begrijp je dat de rode draad voortkomt uit hoe technologie geavanceerder wordt, met alle voor- en nadelen van dien. Dat is juist ontopic, maar gaat niet over 'de specs', nee. Off topic lijkt hier op Tweakers regelmatig in te houden 'dit interesseert mij niet'. Zo maak je er een oppervlakkige, inhoudsloze bubbel van hoor. Daar zijn er wmb al genoeg van...
Heb blijkbaar te vluchtig gelezen.... dank voor je reactie. +1 (kan geen mod op mijn eigen post doen)
Geen probleem, vergissen is menselijk, doen we allemaal. Vergissingen toegeven is een knappe menselijke eigenschap. :)
Ja, tegenwoordig worden er ergens een paar bitjes omgelegd en ligt een hele regio er uit qua spanning, gas en water... Dus ja, hoe humaan wil je het hebben.

Ok, we staan niet meer met 2 legers recht tegenover elkaar, die om de beurt kogels op elkaar af vuren, er zijn geen beulen meer die het touw doorhakken op het moment dat je moet hangen... maar of het er allemaal beter op is geworden? Vroeger wist je dat je iets fout had gedaan en wat je straf was. Nu kun je van alles fout doen en krijg je misschien een aai over je bolletje met de opmerking "Foei, niet meer doen." Als je mazzel hebt krijg je daar nog een elektronische sierraad bij die mooi onder je broekspijpen te verbergen is.

Nee, elektronische vooruitgang is niet in alle opzichten een vooruitgang.
Wat heeft technologie met straffen van onze maatschappij te maken? We kunnen(als de wetten en rechten het toe zouden laten) de ziggo ddossers gewoon de doodstraf geven hoor. Of via een heksestapel verbranden. Technologie heeft daar weinig aan veranderd.
Kijk jij wel eens om 20:00 naar het NOS journaal? Ze kunnen het tegenwoordig nog steeds, alleen op grotere schaal, inclusief vrouw en kinderen.

Misschien kunnen ze veel preciezer te werk gaan, maar dat doen ze echter niet.
Wat is het verwchil in waarde van het leven van een man en het leven van een vrouw of kind? Waarom wordt er altijd zo erg nadruk gelegd op vrouwen en kinderen (en oude mensen ook)? Elk mensenleven is even weinig waard, maakt niet uit of je een man of een vrouw bent, oud of jong. Het is oneerlijk om te zeggen dat het leven van een man nog minder waard is dan dat van een kind.
edit: maar ach ja hier op Tweakers zitten we toch niet om te debatteren over het leven en de waare ervan 8)7

[Reactie gewijzigd door LeFlavius op 6 januari 2017 02:25]

Mannen zijn evolutionair en biologisch gezien vervangbaar aangezien 1 man tientallen vrouwen kan bevruchten. Een vrouw heeft maar een beperkte hoeveelheid eitjes en vruchtbare periode. Kinderen zijn de toekomst van onze soort, dus ook dat is niet heel gek.

Puur rationeel gezien is het dus logisch dat men de nadruk legt op het beschermen van vrouw en kind boven dat van een mannenleven. Vanuit filosofisch en juridisch/grondwettelijk oogpunt is het inderdaad vreemd. Ieder mensenleven is op papier gelijk, maar in de praktijk is dat niet het geval. Al zijn er natuurlijk heel veel mannen die vanuit zichzelf de noodzaak voelen om hun vrouw en kroost te beschermen en voor hun te sterven als dat nodig is. Sterven voor de vrouwen en kinderen van anderen wordt al wat lastiger.
off topic maar technisch gezien zijn mannen niet eens meer nodig voor de bevruchting
https://www.scientias.nl/...or-de-maagdelijke-moeder/

http://www.volkskrant.nl/...n-zonder-sperma~a4251975/

de vraag is of je dit zou willen natuurlijk, een wereld met alleen vrouwen?
Mannen zijn beter in staat zichzelf te verdedigen.

Dus ja vrouwen/kinderen maar ook zieken/zwakken (ook mannen) word bevoordeeld.
Is dat echt zo gek?

Een leven van een man minder waard? Nee dat niet.
Het gaat meer om fatsoensnormen (en ja die kunnen er ook tijdens een oorlog zijn)

[Reactie gewijzigd door Sinned123 op 6 januari 2017 09:42]

Je zou eens moeten weten wat een explosieven met het menselijk lichaam doet. In de 1e wereldoorlog werden de lichamen en lijken die vielen zodra ze uit de loopgraven kwamen letterlijk tot gehakt opgeblazen door mortier en explosieve kanonskogels (overigens is een mitrailleur ook niet zo lief voor het menselijk lichaam). Bermbommen, zelfmoord terroristen, ze doden mensen door ze aan stukken te rijten.

En humaner? lasers worden gemaakt om mensen te verblinden en niet te doden. Dat is ws het humaanst. Mijnen worden gemaakt om ledematen af te rukken ipv te doden, want voor gewonden zorgen kost meer energie voor de vijand dan voor de doden te zorgen.
Eh, groot kaliber en grote knal is vervelend ja, maar een .22/.223 patroon is nog vervelender en het resultaat is vele malen smeriger.

Maar goed, hoe komen we hierop eigelijk?
Het gaat om de snelheid en diameter/gewicht.
Als je de grotere kogel net zo hard kan laten vliegen als die .22(3) dan zal die hoe dan ook meer schade aanrichten. Alleen kom je dan al gauw in de sluipschutter geweren voordat er weer genoeg kruit in de huls zit om de .223 in te halen.
Als je door een .50/12,5mm of een 30mm kogel geraakt word is dat veel "vervelender en het resultaat is vele malen smeriger."
Ja, klopt. Echter is .22 met reden het favoriete kaliber (geweest) van "klusjesmannen". Een .22 in je hersenpan is net of je de inhoud daarvan door een blender gegooid hebt, omdat die patroon de energie mist om je schedel 2x te doorboren. Eťn ingangswond, geen uitgangswond, en slush for brains.

Moet iemand *splat* doen pak je .50 ja, of 30mm (maar dat is lastig schieten, moet je een Apache meenemen)
In SyriŽ gebruiken ze volop 24 en 30mm kogels vanaf de grond. Daar gebruiken ze die zsu lucht afweer geschut type wapens voor vaak achter op een pick-up truck gemonteerd.
Dat is alsnog niet schoudergevuurd, daar dacht ik dat je het over had.
Je zou eens moeten weten wat een explosieven met het menselijk lichaam doet. In de 1e wereldoorlog werden de lichamen en lijken die vielen zodra ze uit de loopgraven kwamen letterlijk tot gehakt opgeblazen door mortier en explosieve kanonskogels (overigens is een mitrailleur ook niet zo lief voor het menselijk lichaam). Bermbommen, zelfmoord terroristen, ze doden mensen door ze aan stukken te rijten.

En humaner? lasers worden gemaakt om mensen te verblinden en niet te doden. Dat is ws het humaanst. Mijnen worden gemaakt om ledematen af te rukken ipv te doden, want voor gewonden zorgen kost meer energie voor de vijand dan voor de doden te zorgen.
Aan de andere kant gebruikt b.v. de VS veel vaker precisie bombardementen om een specifiek doelwit uit te schakelen met zo min mogelijk schade aan de omgeving. Dit in tegenstelling tot de tapijtbombardementen uit de 2e wereldoorlog en de Vietnam oorlog.

In dat opzicht heeft technologie oorlogsvoering dus wel "humaner" gemaakt (voor zover oorlog ooit als humaan beschouwd kan worden). Bermbommen, zelfmoord terroristen etc hebben ook totaal niet het doel om humaan te zijn maar puur om zoveel mogelijk slachtoffers te maken. Dat is ook het enige doel dat een organisatie als IS heeft, omdat ze angst en terreur willen zaaien.
Moderne slagvelden zijn niet gruwelijk? We hebben tegenwoordig de mogelijkheid om honderdduizend mensen in een fractie van een seconde weg te vagen. Humaner? Nee, meer zelfbeheersing, ja.
Vind je? Oorlog is nu anoniem, bijna onzichtbaar. Mensen achter knoppen (kijk bijvoorbeeld Eye in the Sky).
Vroeger werd er nog met bloed, zweet en tranen gevochten. Niet om dat te romantiseren maar dat is fysiek wie-is-de-sterkste. Nu kun je met een drone een hele stad uitroeien, inclusief burgers... maar die kunnen nooit de man achter de knoppen pakken.
Wordt nog minder fraai wanneer blijkt dat de Management Engine van Intel integraal onderdeel zal zijn van deze computers. Big Brother reikt verder en verder.
Je weet dat dit een fake uitspraak van Einstein is, gebaseerd op een film uit 1995?
http://paleofuture.gizmod...-actually-fake-1631236877
Verander dan je bericht in:
"I fear the day that technology will surpass our human interaction. The world will have a generation of idiots." mn oma
en de apple 2 had een scherm..
Nee hoor, enkel video uit, geen ingebouwd scherm. Ook dat kan via usb3.... Los van performance verschillen, kun je op usb multiplexen, waar de apple ][ steeds dedicated poorten/slots had... Waarom eigenlijk vergelijken met een apple ][ ? 2200 keer 1.02Mhz (apple ][) is 2.2Ghz! Net zoals een nanopi alleen van intel en in een beter jasje.
eigenlijk is de vooruitgang nog minder vanwege de keuze van de package. De 6502 zat in een grote package. Tegenwoordig zal deze met de zelfde chip een stuk kleiner zijn geweest en zou ook gepast hebben in deze creditcard computer.
Voor de vergelijkingen die hier gemaakt worden met de Raspberry Pi: ik denk dat dit product in dat geval het best te vergelijken is met de Raspberry Pi Compute Module. Komt inmiddels al uit 2014 en heeft een IO board nodig om de poorten beschikbaar te maken, maar de filosofie is hetzelfde.

Ik vind het vooral erg interessante ontwikkelingen als je kijkt hoe een dergelijke oplossing de brug kan slaan tussen prototype en uiteindelijk product. Kleine ontwikkelteams kunnen met deze apparaatjes relatief makkelijk een flinke hoeveelheid rekenkracht toevoegen aan hun product. Bijkomend voordeel is dat het ook makkelijk te upgraden is zodra er een bepaalde standaard is ontstaan.
Kan iemand mij vertellen wat hier nou echt het nut van is? Of gaat dit pas echt van toepassing zijn over een x aantal jaren? :/

Edit: met logisch nadenken en informatieve comments zijn de mogelijkheden wel duidelijk :)

[Reactie gewijzigd door ErwinnBeen op 6 januari 2017 00:06]

Dit lijkt me bijv. prima geschikt als HTPC die je in een 'domme' TV schuift waarmee je die dan helemaal zelf met software naar wens kunt optuigen om die TV ťcht 'smart' te maken en die dan niet veroudert omdat de TV fabrikant niet meer de moeite wil nemen om er upgrades voor te maken. Hier zit dan ook tenminste een fatsoenlijke hoeveelheid processorkracht in i.p.v. die zwaar underpowered SOCjes in de huidige 'smart' TV's.

Nu moeten de TV fabrikanten alleen nog TV's gaan maken waar deze dingen in kunnen.
Nu moeten de TV fabrikanten alleen nog TV's gaan maken waar deze dingen in kunnen.
En dat zie ik niet gebeuren.TV fabrikanten geven nu ook al niet de controle over het systeem aan de klant. Er is geen enkele reden om te denken dat ze dat m.b.v. dit systeem wel zouden doen.

Als zoiets al gebeurd zie ik het eerder komen van monitor fabrikanten en system integrators, zoals Dell en HP, omdat ze een iMac achtige beleving willen kunnen leveren. Maar dan ontbreekt dus de ontvanger/decoder. En de kabelmaatschappijen gaan daar weer niet bij helpen, want die zijn net zo controleziek als de TV fabrikanten.

Dus, ja goed idee. Nee, gaat waarschijnlijk niet gebeuren.
Zijn "TV apparaten "en "kabelmaatschappijen" geen achterhaalde entiteiten binnen 5 of 10 jaar? Of misschien wel korter....
't Is dat bv Ziggo/UPC nu verplicht om "TV diensten af te nemen" maar dat is toch een kwestie van tijd.
Maar bij andere internet providers ben je daar vrij in.
Bij Ziggo kun je nu al een zakelijk abo nemen (als particulier) zonder TV/Telefoon.
Waarschijnlijk kan dit in de toekomst ook op de particuliere abo's.
Veel TV-zenders zijn al gratis te bekijken via internet. Vul dat aan met Netflix of soortgelijk iets, combineer alles in een mediacenter en klaar. Lijken me deze kaartjes een perfecte basis voor.
Steeds meer huishoudens hebben geen antenne meer direct in hun TV zitten.. Omdat we verplicht worden om bij KPN en Dochters een STB te kopen, Bij Ziggo de horizon door gedrukt krijgen.

Je kan tegenwordig beter een 60" Monitor kopen dan een 60" TV.. Gezien beide met een STB vergelijkbaar zijn.
Zolang je geen premium pakketten of alle HD zenders wilt kun je ook ongecodeerde digitale TV bekijken bij Ziggo.
Klopt Nederland 1, 2 en 3, en de lokale zenders.. Maar RTL Discovery e.d. Zijn toch echt achter de decoder.
Het zijn er wel meer, inclusief discovery, maar als je een uitgebreid (of hd) zender pakket gewend bent dan is het inderdaad een afgang (met maar 1 discovery zender ;))
Volgens mij zit hier geen opslag in, dus je zou er niet apps op kunnen zetten en dergelijke.
Hierin zitten de processor, het geheugen, ram en wifi- en bluetooth-connectiviteit verwerkt

Tenzij het fout geplaatst is in de tekst.
geheugen is niet opslag. geheugen is RAM. Ik zie ook nu pas dat in de opsomming "geheugen" en "ram" allebei staat. Foutje van Tweakers dus :)

Maar ja, er zit dus wel opslag in. Dan is het inderdaad ideaal voor dat soort dingen.

[Reactie gewijzigd door unilythe op 5 januari 2017 23:47]

Er zijn al wel ontwikkelingen om het onderscheid RAM en persistent storage weg te nemen. Daarvoor is wel nodig dat het RAM vervangen wordt door non-volatile geheugen. Stel dat dit kan, dan kun je een compleet andere manier van EDP bouwen.
Hoezo? Je hebt toch intern en extern geheugen? Waarbij extern geheugen b.v. een diskette kan zijn. Bovendien is ROM ook geheugen.
Technisch gezien is opslag ook geheugen, maar iedereen die er verstand van heeft maakt er duidelijk onderscheid in om misverstanden als deze te vermijden.

[Reactie gewijzigd door unilythe op 6 januari 2017 11:59]

Doorgaans wordt er hier op Tweakers op gehamerd dat RAM en geheugen hetzelfde is. Opslag daarentegen is wťl iets anders.

EDIT: Ik zie dat het om opslag gaat:
The Intel Compute Card has all the elements of a full computer, including Intel SoC, memory, storage and wireless connectivity with flexible I/O options so hardware manufacturers can optimize for their particular solutions – from interactive refrigerators and smart kiosks to security cameras and IoT gateways.

[Reactie gewijzigd door sypie op 5 januari 2017 23:38]

Uit de factsheet:

Processor, memory, storage and wireless connectivity are all included in the card
Ja, dat stond niet in dit artikel maar je hebt gelijk :)
Ja dat is waar ook, dat ik daar niet aan dacht 8)7 . Maar inderdaad, fabrikanten moeten het idee omarmen door het apparaatje te gaan ondersteunen. Ben Benieuwd, er zit in ieder geval potentie in :)
Nee, dit is niet geschikt als upgradeable module voor TV's. Ook niet voor ijskasten en dergelijke. Het meest problematische is dat Intel niet garandeert dat je zo'n ding in 2018 nog kunt kopen, laat staan in 2022. Het is ook geen standaard en open formaat, dus je kunt 't ook niet second-sourcen.

Je kunt wel klagen over die underpowered SOC'jes, maar daar heb je leveranciers (zoals NXP) die garanderen dat je SOC'je van vandaag ook in 2027 nog leverbaar is.
Of wat dacht je het in een laptop of tablet behuizing schuiven en het zo upgradable maken.
Ongelofelijk... Zoals in de tekst staat: koelkasten, televisies, maar ook vast in de ruimtevaart waar minder gewicht erg belangrijk is (maar dan moeten ze waarschijnlijk nog wel beschermd worden tegen straling). Ze zijn simpel, snel en klein. Dat is ideaal in ontzettend veel situaties.
Over een paar jaar in combinatie met oprolbare schermen, kun je je laptop meenemen als creditcard. Zie je het voordeel?
Ja ik zie het voordeel zeker, ik dacht niet echt logisch na |:( . Ben benieuwd naar het prijskaartje, misschien ga ik er ook mee spelen. IdeeŽn lopen over nu :9
Niet in de ruimtevaart. De bescherming tegen straling weegt teveel. Dan kun je beter een grotere chip hebben waar een enkel foton geen upset veroorzaakt. De ruimtevaart is daarom op 130 nm blijven hangen. Een andere reden is dat in de ruimtevaart de kosten toch niet afhangen van het aantal chips wat je uit een wafer krijgt.
Voor mini-ITX als formfactor was ook maar een beperkte markt (nl. voor industrieel gebruik). Vele tweakers hebben zelf een servertje daarmee gebouwd. De Raspberry Pi was bedoeld als goedkope computer om kinderen de beginselen van computers en programmeren bij te brengen. Ook de Raspberry Pi wordt voor heel veel meer dingen gebruikt: mediaplayer, domotica-server, beveiligings-server etc..

Voor dit ding zie ik ook wel een markt. Je kunt bv apparaten met een niet zo krachtige processor ineens meer power geven (bv in je router), of extra functionaliteit (bv van een tv een smart-tv maken of bv een desktop pc.
Kan mij zomaar voorstellen dat budget hosters zoals scaleway dit mogelijk ook wel leuk vinden. Zij bieden fysieke cores aan door middel van kleine blade-achtige systemen in grote getallen aan te sluiten op internet (hdd-emulatie via centrale storage). Hoe kleiner, hoe beter. Mini bladetjes, schattig.
Mogelijk dat dit toegepast kan worden in flexwerk situaties.
Stille werk PC, want geen bewegende onderdelen zoals een fan. Handig voor op kantoor dus. Of ook ideaal voor een volledig stille HTPC. Of een laptopvervanger, je neemt gewoon dit ding plus een los scherm mee overal naartoe, haha. :) Overal waar een tv hangt (hotels, vliegtuig zal zijn schermpjes nog even moeten aanpassen dan) plug je gewoon je eigen computer in. Enz...
Dus hetzelfde formaat als de Raspi, maar dan stukken dunner (nl 5mm). Mooi! Hopelijk wordt het een standaard zodat er veel omheen ontwikkeld wordt.
Ik kan nergens de draw vinden. Ik heb geen idee hoe "zuinig" deze micro-pc is. Iemand een idee?
Wel, mochten we alle I/O poorten van de rPi vervangen door de platte usb c die hierop te vinden is gaat het verschil heel wat minder groot zijn hoor.
Stukken dunner? Are you sure? The Raspberry Pi measures 85.60mm x 56mm x 21mm. Dat is natuurlijk zonder de case, maar stel dat de Raspberry Pi Foundation met een mooie case zou komen dan zou het niet veel afwijken qua afmetingen lijkt me.

De Raspberry Pi Mini is in ieder geval wel dunner dan 21 mm mensen :)

[Reactie gewijzigd door mind123 op 5 januari 2017 22:56]

Da's nog steeds meer dan 4x zo dik...
De raspberry heeft natuurlijk tegen dat er headers en USB poorten op zitten die enorm hoog zijn. De Pi Zero is overigens 5.08mm dik (dat is dan wel zonder headers)

[Reactie gewijzigd door lololig op 5 januari 2017 23:02]

Heeft-ie dat tegen of juist mee? Bij deze intel kaart heb je dus altijd nog een "slot" nodig om-m in te steken, waarmee deze ook weer groter en/of dikker wordt. Het hele grote voordeel in mijn ogen van een RPi is behalve de prijs ook het feit dat het USB/Netwerk/HDMI etc aan boord heeft.
In de vergelijking welke dunner is heeft ie dat uiteraard tegen :)
5mm vs 21mm is nogal wat volgens mij :P
Fuck ja, je hebt gelijk. Maar als ik nu kijk naar mijn Raspberry Pi, dan is die ook geen 21 mm. Amper 2 muntstukken dik. 21 mm is 2,1 cm en dat is hij ook niet. Ohw... Het is de mini.
Er zijn natuurlijk talloze systemen nog dunner. Als je alleen het printplaatje uit je smartphone pakt is het ook dunner dan 5mm.

Het gaat natuurlijk om de performance en het hele idee van dit product. Daar kan een Raspberry Pi niet eens bij in de buurt komen ;)
> Het gaat natuurlijk om de performance
dat vraag ik mij af, een rp3 (quad core 1.2Ghz 64 bits ARM is behoorlijk snel, ben benieuwd hoeveel deze qua mflops uit elkaar lopen...
Hee, dat is een nieuw model Raspberry? :+
De Raspberry Pi Zero is redelijk dun, want daar zitten geen USB/CAT5 poorten opgesoldeerd.

Maar dit moet je vergelijken met de compute module. Dat is ook een 'kale' Raspberry die je ergens anders insteekt (in een board met aansluitmogelijkheden bijvoorbeeld)
De poort is RJ-45, de kabel is Cat5. En dat is inderdaad een probleem-poort tegenwoordig vanwege het formaat ervan. Ethernet over USB is qua afmetingen handiger.
Je hebt gelijk. Ik was nog niet helemaal wakker zullen we maar zeggen :O
Ik ben op zich erg blij dat 'ie op een Raspberry zit; scheelt weer adapters.
(En wifi vind ik niet altijd handig)
Beeldscherm en accu er op plakken en het is een volwaardige PC op telefoon formaat! Welkom Surface telefoon 😉
Intel denkt aan toepassing in onder andere interactieve koelkasten

Welkom Surface koelkast :+

OT: laat de Surface Phone maar komen :9

[Reactie gewijzigd door Udrene op 5 januari 2017 22:39]

Denk meer aan een smarttv die je kan upgraden. Laat maar komen!

[Reactie gewijzigd door AeoN909 op 5 januari 2017 22:45]

Dan gaan we in weze toch weer terug naar dumb TVs met een smart card? :)
*grijns* ja maar dit keer een echt smartcard.
Succes met ontwikkelen :P
Zou overigens wel tof zijn als continuum telefoon ofzo. Dan kun je die card eruit halen en in je beeldscherm thuis steken ofzo.
Je gaat wel erg weinig ruimte overhouden voor een accu trouwens. Of je krijgt een hele dikke telefoon. Sowieso gaat een dergelijke telefoon niet klein worden als je al kijkt naar de afmetingen van het doosje
Snapdragon 835 windows10 als een gegoogled ?
Ah, het volgende Windows RT?
Nee, dan toch liever native support voor alle bestaande applicaties i.p.v. emulatie.

[Reactie gewijzigd door BLACKfm op 6 januari 2017 02:09]

Wat een geweldige ontwikkeling, hopelijk worden ze ook een beetje betaalbaar
Minder geweldig is dat de Management Engine van Intel er integraal onderdeel van zal zijn. Heb je als gebruiker geen enkele invloed op, werkt onafhankelijk van welk OS ook, en kan zelfstandig contact met internet maken zonder enige invloed van users.
Heb je als gebruiker geen enkele invloed op, werkt onafhankelijk van welk OS ook, en kan zelfstandig contact met internet maken zonder enige invloed van users.
Daar bestaat een oplossing tegen voor apparaten die vast in een eigen netwerk worden geplaatst. Zorg ervoor dat het apparaat met een enkel end-point aangesloten wordt op een VPN server. Het apparaat *moet* (op OS/applicatieniveau) een VPN verbinding opzetten om het Internet te kunnen benaderen.

Probleem opgelost. ME heeft namelijk geen toegang tot de TUN/TAP interface in het OS, maar alleen 'directe' toegang tot de netwerkhardware. Combineer het met Linux (die geen gevoelige informatie aan ME voedt of een verborgen bridge interface aanbiedt) en klaar. ;)

Het is bedroevend wat je tegenwoordig moet doen om je apparaten te beveiligen tegen de rotzooi die ermee geleverd wordt.

[Reactie gewijzigd door The Zep Man op 6 januari 2017 09:00]

Ben er niet zo zeker van dat je de Management Engine op die manier teniet weet te doen. Daar moet ik nog eens goed over nadenken.
Als dit nou eens in tv's komt, om er een echte smart-tv van te maken...
Kun je er na een paar jaar gewoon weer een nieuw kaartje instoppen als ze de connectie t zelfde houden. met up-to-date hardware natuurlijk.
Wat een geniaal idee zou dat zijn, alleen gaan Samsung en Philips dat niet leuk vinden want dan kunnen ze hun betaalde advertenties niet meer laten zien :+
En ze zien natuurlijk veel liever dat je om de 2 - 3 jaar een gloednieuwe televisie gaat kopen gewoon omdat de software onbruikbaar is of niet meer snel genoeg is.

En dan komt men weer met hoe groen en milieubewust die nieuwe televisie wel niet is... jaja
Precies, Ik denk dat de volgende TV die ik ga kopen meer een domme monitor wordt van goede kwaliteit. Dan regel ik het smart gedeelte zelf wel. Met de meeste TV content leverancier kastjes gebruik je de TV functionaliteit toch al nauewelijks
Ooit experimenteerde Philips en anderen met een upgradable SOC. Maar daar hoor je nauwelijks nog iets van.
Als dit nou eens in tv's komt, om er een echte smart-tv van te maken...
Wat is (buiten de stroomvoorziening) het verschil met een Compute Stick achterop de TV plakken? Dat past zelfs achter TV's die strak tegen de muur gehangen worden door de benodigde uitsparingen aan de achterkant.
De stroomadapter?

Ik heb de compustick (2016) en het ding haalt geen stroom via een USB poort van de tv maar uit een stopcontact. Een van de grooste nadelen van dat ding.
Nu nog een case voor een externe GPU (a la Razer) eraan kunnen hangen en je hebt een leuke set :D

*Kijkt uit naar de toekomst en de mogelijkheden*

[Reactie gewijzigd door Danny.G op 5 januari 2017 23:11]

Tja, maar dan heb je qua afmetingen een koelkast (de gpu kast) naast je design credit card :(
Plak er een scherm en een accu op en je hebt een kleine tablet :P.
prik er een video headset op en je bent "in business"
Dat is mooi. We hoeven dus helemaal niet meer op de Surface Phone te wachten om een klein, handzaam en bruikbaar OS mee te kunnen nemen. Het ding past in theorie gewoon in je portemonnee. Maar wat te denken van integraties binnen andere apparaten? Met een soort van PCMCIA-sleuf past dat ding in je TV, je display of je koelkast... Ik zie kansen.

[Reactie gewijzigd door mind123 op 5 januari 2017 22:54]

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*