'Ex-Apple-ontwerper Jony Ive in overleg met OpenAI over hardware'

Ex-Apple-ontwerper Jony Ive voert naar verluidt gesprekken met OpenAI over het ontwerpen van hardware met geïntegreerde kunstmatige intelligentie. Details over hoe zo'n apparaat eruit moet komen te zien of wat de status ervan is, zijn nog niet bekend.

Twee bronnen van The Information zeggen dat Jony Ive gesprekken heeft of heeft gehad met Sam Altman, de baas van ChatGPT-maker OpenAI. Die gesprekken gaan volgens de bronnen van de site over mogelijke 'hardware met een kern van kunstmatige intelligentie', maar er zijn geen details bekend over wat dat in de praktijk betekent. Het is dus ook niet duidelijk of zo'n product gemaakt zou worden door OpenAI of een derde partij, of door Jony Ives eigen bedrijf LoveFrom.

Door Tijs Hofmans

Nieuwscoördinator

27-09-2023 • 13:47

27

Reacties (27)

27
24
8
1
0
8
Wijzig sortering
Vraag mij af waar ze dan die chips vandaan willen halen, er vanuit gaande dat ze echt GPT lokaal willen draaien (wat er wordt geïmpliceerd) zal dat best wel een probleem opleveren. M-klasse chips van Apple kunnen LLAMA wel draaien, maar dat is ook geen feest. En die chips zijn ook niet goedkoop.

Tenzij ze een stationaire toren maken heb ik hier mijn twijfels bij.
ChatGPT lokaal draaien is echt geen optie op een mobiel apparaat. Dat duurt nog wel 2 decennia.
Het zal meer een hippe smartphone-achtige handheld zijn die vie een internet connectie gebruik maakt van ChatGPT diensten.
ChatGPT lokaal draaien is echt geen optie op een mobiel apparaat. Dat duurt nog wel 2 decennia.
Het zal meer een hippe smartphone-achtige handheld zijn die vie een internet connectie gebruik maakt van ChatGPT diensten.
Ik zie geen reden waaorm we 2 decenia moeten wachten. Je kan nu al Llama op een Laptop draaien. Het hele model is 240Gb maar als je bijvoorbeeld enkel het LLaMA-13B model neemt ipv de 65 dan is het een heel stuk kleiner en je hebt maar 4GB of RAM nodig. (bron)

ChatGPT is natuurlijk het neusje van de zalm je wel gewoon kan AI lokaal draaien.
Hier staat wat informatie door elkaar. Laat ons ook naar Llama 2 verwijzen in plaats van de gedateerde Llama 1.

Llama 2 komt momenteel in drie varianten (7B, 13B, 70B). On-disk zijn die respectievelijk 13.5GB, 26GB, en 138GB. Uiteraard is er dus wel een verschil tussen deze versies, zowel qua kwaliteit als snelheid. De grootse magie komt echter van quantization! Als je al eens AWQ/GPTQ of GGML/GGUF hebt gezien, dan zijn dat aangepaste modellen die geoptimaliseerd zijn voor inference (dus niet voor het trainen van modellen maar voor er output uit te krijgen) waardoor sommige versies zelfs even leuk op een macbook draaien! Om een idee te geven: de GPTQ onderzoekers krijgen met hun techniek een model van 175B (grootte-orde van GPT-3.5) aan de praat op een enkele GPU (A100 80GB).
2 decennia lijkt me wat overdreven. Aangezien LLAMA al enigszins op lokale mobiele hardware draaiend is te maken praat je eerder over een aantal jaren van zowel software optimalisatie en hardware optimalisatie en verbeteringen en een AI met de funcationaliteit van Chat GPT 4 zoals die nu is moet kunnen.

2 decennia is een eeuwigheid, dat is de afstand tussen de nokia 3310 en onze huidige mobieltjes en tussen een 1 GHZ single core processor en whatever je nu in je processor hebt.
Google home gaat er hier x8 zo uit als er een chatGPT alternatief is die wél snapt wat je bedoelt….
Ik ben benieuwd, maar de kracht van AI is dat je geen (telefoon)scherm meer hoeft te gebruiken als in- en uitvoer voor de meeste taken waarbij een mens hulp nodig heeft van een computer.

Voorbeeld: Geld overmaken vanaf je telefoon klinkt natuurlijk makkelijk, maar je moet nog steeds eerst (op internet) zoeken naar het IBAN-nummer van de ontvanger, het bedrag nakijken aan de hand van wat in je mail stond, geld van je spaarrekening halen of de betaling inplannen tot na je salaris is gestort, etc. Als je in plaats daarvan kunt zeggen "oh ja, betaal even dat etentje terug van vorige week" en het wordt voor je geregeld (met eventueel een vervolgvraag of je geld van je spaarrekening wilt halen of nog even wilt wachten tot je salaris is ontvangen) heb je toch 3 minuten minder lang je telefoon in je handen gehad.

Een ander voorbeeld: Als een apparaat (constant) mee kan kijken met wat jij ziet, kan het direct antwoord geven op vragen bijna nog voordat je ze hoeft te stellen. Een beetje wat HoloLens doet, maar dan zonder projectie voor je ogen.
Dat klinkt een beetje zoals de KI en het apparaatje in de film Her.
Mijn gedachte gaat uit naar androïde robots die als hulp in huis kunnen dienen. Maar het zal waarschijnlijk wel een “suffe” handheld zijn. Ben in ieder geval benieuwd.
Ben benieuwd of hij vorm over functie dan heeft afgeleerd. Of zal hij deze producten ook weer te dun maken zonder fatsoenlijke koeling?

Hij maakt mooie designs, maar je kunt soms ook doorslaan.
In een datacenter willen we toch ook design hardware? :)
Wie heeft het over een data centrum?
Ik zou voor een ai robot gaat die je kan beschermen tegen agressie op straat
En dan maar wachten tot Eea ontsporen gaat
Dit gaat 95% om een slimme speker met chatgtp als backend…

Niet specifiek apple of google dus open genoeg voor een fatsoenlijke spotify koppeling e.d.

20 euro per maand om tegen chatgtp te kunnen praten in je huis…

Wit.. met een meerkleurige halo die beweegt en emote bij interactie…
Johy Ive's design input: "DUNNER, het moet dunner"
Of leiden tot een nieuwe ChatGPT-Hardware=God cult
Of leiden tot een nieuwe ChatGPT-Hardware=God cult
en dat maakt een weg vrij voor het ontwikkelen van Cylons... :P

[Reactie gewijzigd door Dark Angel 58 op 26 juli 2024 19:46]

Waarom jou geloven?
Tis dat of ChatGPT geloven
Alleen hier of zijn we dat station allang voorbij?
Gaat ‘ie verder een beetje goed met je?
Heb je je medicijnen voor vandaag ingenomen?
Haha, je bevestigt mijn vermoeden alleen maar :)
Doe vooral rustig aan!

Op dit item kan niet meer gereageerd worden.