Gerucht: Elon Musks xAI werkt aan supercomputer voor volgende Grok-AI-model

Het bedrijf xAI van Elon Musk zou werken aan een supercomputer voor de volgende versie van zijn AI-model Grok. Dat schrijft The Information op basis van een presentatie van Elon Musk voor investeerders.

Musk liet tijdens de investeerderspresentatie weten dat het de bedoeling is dat de supercomputer rond de herfst van 2025 klaar is, schrijft The Information. Hij beweert naar verluidt dat er hiervoor tienduizenden Nvidia H100-gpu's gebruikt worden en dat de clusters van deze chips vier keer groter zijn dan de grootste gpu-clusters die er momenteel gebruikt worden. Musk doelt daarmee mogelijk op de clusters van Meta. Dat bedrijf liet eerder dit jaar weten dat het werkt aan twee gpu-clusters met elk 24.000 chips, bedoeld voor het trainen van zijn Llama 3-modellen.

Musk liet eerder al weten dat er voor een derde versie van Grok meer dan 100.000 H100-gpu's nodig zijn. Grok 2 gebruikt momenteel zo'n 20.000 van deze chips. Volgens de ceo kost het miljarden dollars om deze supercomputer te bouwen. The Information beweert dat xAI hiervoor mogelijk samen gaat werken met Oracle. De site schreef afgelopen week al dat het AI-bedrijf de cloudservers van Oracle wil gebruiken. XAI staat naar verluidt op het punt om een meerjarige overeenkomst met het softwarebedrijf te sluiten.

Eerder deze maand schreef de Financial Times op basis van ingewijden dat xAI momenteel naar schatting 18 miljard dollar waard is en dat het bedrijf tijdens een nieuwe investeringsronde zes miljard heeft opgehaald. Inclusief die investeringen zou xAI dus op 24 miljard dollar gewaardeerd worden. Volgens de site wil het bedrijf hiermee een nieuwe versie van het Grok-model ontwikkelen, om zo de strijd aan te gaan met marktleiders als OpenAI en Google.

Door Kevin Krikhaar

Redacteur

26-05-2024 • 11:40

159

Reacties (159)

159
143
45
5
0
64
Wijzig sortering

Sorteer op:

Weergave:

En ineens zjin alle klimaatambities van big tech verdwenen. Tienduizenden GPU's, allemachtig. Waar halen we de stroom nog vandaan?
Miaschien dat zon AI wel helpt om kernfusie te realiseren. Dan was het een toch een goede investering. Soms is het goed om risicos te nemen en te investeren. Dat levert meer op dan de klaagbank denk ik.
Maar dit is wederom een large language model.
Dat heeft helemaal niets met modelleren van kernfusie te maken en ook bijzonder weinig met intelligentie.
Hoewel een LLM een antwoord kan geven betekend het niet dat het ook maar iets begrijpt van wat het doet.

Dat is ook duidelijk te zien aan dat het bijvoorbeeld geen idee heeft van wiskundige berekeningen.
Dus het kan bijvoorbeeld wel tekst uitleg geven over een wiskunde formules of concepten maar daadwerkelijk sommen maken dan weer niet.
Dat is ook duidelijk te zien aan dat het bijvoorbeeld geen idee heeft van wiskundige berekeningen.
Dus het kan bijvoorbeeld wel tekst uitleg geven over een wiskunde formules of concepten maar daadwerkelijk sommen maken dan weer niet.
Raar. Hoe komt het dan dat GPT wel sommen kan maken? Complexe integralen? Ze hebben daar niet gewoon een rekenmachine aan geplakt. LLM’s zijn ondertussen wel wat meer dan taalmodellen.
Copilot (GPT4) geeft bij mij bij 1234*4321 anders het verkeerde antwoord (5332714 in de plaats van 5332114 als ik het direct vraag. Bij verhaalsommen over een muur van Legoblokjes van 1x1 meter gaat het helemaal fout en vermenigvuldigd het de lengte breedte én hoogte van een blokje. Zelfs na 4 keer uitleggen wat er verkeerd ging gaat het mis.

Correctie, als ik 'm op "Precise" zet gaat het goed. Maar dan nog verander je dan maar 1 parameter van het taalmodel en gaat de "berekening" op basis van een token-voorspelling. Het model switcht dan niet ineens naar een andere manier om te gaan met jouw input.

Enorm gevaarlijk dus om maar aan te nemen dat hier wiskunde achter zit. Als je googled op deze vraag krijg je ook alleen maar te zien dat GPT4 een "stuk beter" is in Wiskunde, maar niet in alle talen. Nergens een bericht van OpenAI hierover om het te bevestigen. Let dus op dat je niet zomaar alles wat het ding zegt voor waarheid aanneemt!
Zoals met al deze AI dingen, je moet de resultaten nog wel altijd zelf controleren. Daarom is het zo nutteloos om een LLM "rekenwerk" te laten doen, aangezien je er gewoon nooit vanuit kan gaan dat het klopt. "verzint" hij het antwoord, of berekend hij hem daadwerkelijk (dus of hij iets externs aanroept om dat te doen, en doet hij dat goet)? Je zal elk antwoord moeten analyseren hoe hij eraan komt om te weten of het klopt (of je rekent het dus gewoon zelf(.

Deze modellen zijn geweldig voor assistentie en ondersteuning, suggesties die mij nog wel eens ideeën kan geven waar ik anders niet aan had gedacht. Maar een vraag waarvan ik het antwoord wil verwerken in mijn eindproduct zal ik toch echt zelf na moeten lopen, daar kan en mag je een LLM AI gewoon niet op vertrouwen. Dat geld voor het schrijven/vertalen van een leestekst, maar zeker des te belangrijker bij logica dingen zoals code en wiskunde.

Zo'n AI is accuraat in gradaties, des te meer hij over het onderwerp "weet" des te meer dat het richting de 100% komt te liggen, maar het is vrijwel nooit 100%, er zit altijd wat percentage foutmarge in, gaten in kennis die hij gaat opvullen. Daar komt het hallucineren van bots vandaan. @Coolstart zal daarom best wel eens een vraag kunnen stellen en een correct antwoord krijgen, zeker als het een simpele (veelvoorkomende) vraag is. Maar er vanuit gaan dat dit altijd klopt is dus uiterst gevaarlijk.

Uiterst vreemde zaak dat Google AI gebruikt bij zoekresultaten, https://threadreaderapp.com/thread/1794543007129387208 stond hierboven ergens gelinked. Zie je hoe gevaarlijk dit is? Hoeveel mensen gaan er vanuit dat het eerste dat bovenaan staat correct is?

LLM AI's zijn geen zoekmachines of waarzeggers, ze zouden nooit zo behandeld mogen worden. En, imo, ligt hier het grote gevaar van AI, complot theorieën die langzaamaan toch waar beginnen te worden Wikipedia: Dead Internet theory . Straks zit er alleen nog maar AI op het internet die elkaar de grootste onzin na lopen te praten. En men gelooft het nog ook.

[Reactie gewijzigd door Zoop op 23 juli 2024 06:17]

Copilot werkt echt niet goed. Ik kan niet geloven dat het een complete GPT4 is want ik heb zero issues. Ik vermoed dat ze een dichtgeknepen versie van GPT4 gebruiken. Zelfs als ik het gebruik om teksten te herschrijven mist hij context van de vorige invoer.

GPT4o (de echte dan) : "The product of 1234 and 4321 is 5,332,114."
GPT4 (Een stuk trager): "The result of multiplying 1234 by 4321 is 5,332,114."
Dat is ook duidelijk te zien aan dat het bijvoorbeeld geen idee heeft van wiskundige berekeningen.
Dus het kan bijvoorbeeld wel tekst uitleg geven over een wiskunde formules of concepten maar daadwerkelijk sommen maken dan weer niet.
Dit klopt dus voor geen meter, krijgt wel een +2 zonder bron of ander bewijs dat een LLM geen wiskundige berekeningen kan maken. Of ik de berekeningen zonder te controleren zou gebruiken voor de volgende maanmissie is een andere zaak maar beweren dat het geen idee heeft van wiskundige berekeningen klopt niet.

[Reactie gewijzigd door Coolstart op 23 juli 2024 06:17]

Fout. Openai heeft nu een feature genaamd "advanced data analysis" wat jouw berekening kloppend maakt, het LLM kan die berekening niet uitvoeren.

Het LLM model produceert in dat geval de (python) code 1234 * 4321, wat vervolgens uitgevoerd wordt door een interpreter en het juiste antwoord berekend.

Wanneer je gpt4o zonder die feature gebruikt krijg je volledig uitgewerkte antwoorden die vaak niet kloppen als 5333114.

In de huidige staat is het dus hopen dat de code die gegeneerd wordt om jouw berekening te doen correct gegeneerd wordt. Het verschil met copilot wat je ervaart zal wel zijn dat copilot die feature niet aan heeft staan en chatgpt wel.

[Reactie gewijzigd door hejkompas op 23 juli 2024 06:17]

Fout? Maak het uit hoe het LLM achterliggend omgaat met data? Of dat nu via de GPU is of via de CPU een calculatie maakt via python of via een andere weg? Maakt dat uit? Wat telt is het resultaat van uw opdracht. Als een LLM plots heel goed is in rijmpjes en blijkt dat het komt omdat het gekoppeld is aan een rijmwoordenboek-script in Pyton. Is dan het LLM nog altijd slecht in rijmen?
En toch, als ik GPT 4o 3 punten geeft en vraag wat de grafiek is die hierbij hoort, doet deze dat altijd goed. Ik heb het ook met 4 punten gevraagd, daarbij gaat het meestal goed maar niet altijd, maar heeft hij het altijd goed gedaan als ik vraag om het uit te voeren met matrix transofrmaties:

https://chatgpt.com/share...2b-4241-8c32-870757ffded0

Ook bij GPT 3.5 had ik hier geen problemen mee. Je moet natuurlijk wel altijd even controleren of het klopt wat eruit komt, maar dat LLMs hallucineren is redelijk algemeen bekend mag ik hopen.
De basis is dan geloof ik nog altijd woordvoorspellingen en geen berekeningen. Het antwoord van Nico komt al iets dichterbij, alleen lijkt het me sterk dat ChatGPT zelf code schrijft en uitvoert op de achtergrond.

Het is erg goed en het gaat vaak ook goed, maar precies dat puntje van hallucineren is iets wat in mijn omgeving nog aardig onbekend is (ik krijg veel vragen hierover en heb het vaak moeten uitleggen).

Het is dus prima als je weet dat de berekening wellicht niet juist is en je deze checkt, maar ik ben bang dat als mensen lezen dat ChatGPT kan rekenen ze hier altijd klakkeloos vanuit gaan.

Punt blijft dat het een taalmodel is en niet meer. Of heb ik het fout?
Wat veel van deze bots doen (chatgpt volgens mij iig), als de bot begrijpt dat het om een berekening gaat, is de prompt omzetten naar een stukje python, en dat uitvoeren. Dus die wiskundige berekening zou zo accuraat moeten zijn als python is. Maar die rekensom maken kan hij verkeerd doen en het is wat lastig te zien hoe hij aan zijn antwoord komt, het is mogelijk dat het alsnog puur op het taalmodel gebeurd (en dus het antwoord "raad").

Dat omzetten naar een python script en uitvoeren, zullen ze vast steeds beter in worden. Dusja, dan kan hij in een zekere zin rekenen. Het zou gigantisch helpen als de bot direct toelicht hoe hij aan zn rekensom antwoord komt en dat dien je dan dus altijd te controleren. Hij kan de criteria simpelweg misvatten, zoals wanneer je vraagt aan Google om actrices in hun fifites, en op 1 antwoord na allemaal fout, tsja, is toch niet heel ingewikkeld zou je denken.

Als je LLM's dan per se voor je wiskunde wilt gebruiken, vraag hem dan de formule op te zetten, en voer die dan zelf uit. Dan weet je dat het antwoord daadwerkelijk uit die rekensom komt (ai kan ook zeggen 2+2=5, heb je de formule en antwoord en toch klopt het niet) en of er iets misgaat.

Het gevaar zit hem inderdaad in dat klakkeloos ervanuit gaan. Zeker voor simpel spul als wiskundige formules uit te rekenen, daar zijn toch veel praktischere tools voor? Is ook gewoon verspilling, tig gigawatt en gigabytes aan data de wereld rondpompen om iets uit te rekenen wat je ook op je calculator met een zonnecelletje kan doen, is decadent den top.
Interessant, maar ik had begrepen dat het een LLM is en blijft, en dus niets kan uitvoeren anders dan het volgende token raden. Ik zie wel dat er plugins zijn hier ondersteuning voor bieden en dat er is gewerkt aan het schrijven, interpreteren en uitvoeren van enkele programmeertalen.

In ieder geval vanaf gpt4 lijkt hiervoor de ondersteuning sterk verbeterd.
Copilot is niet hetzelfde als ChatGPT. ChatGPT 4o kan dit prima.

Als ik ChatGPT 4o vraag "Wat is 1234*4321?" krijg ik netjes 5332114.

Onder water gebruikt ChatGPT 4o daar dan deze door ChatGPT 4o zelf bedachte Python code voor:

# Calculation of the product of 1234 and 4321
result = 1234 * 4321
result

EDIT: Nog wat verduidelijkt.

[Reactie gewijzigd door Nico de Vries op 23 juli 2024 06:17]

Vraag copilot eens om een python script te schrijven om het te berekenen. De kans dat dat wel goed gaat is veel groter.
Hadden ze niet een samenwerking met Wolfram|Alpha die wel bedoeld is voor berekeningen uitvoeren?
Nouja, ik heb best veel voordelen gezien van LLMs voor programmeren, als dit programmeren veel toegankelijker maakt voor bijvoorbeeld kernfucici (dat heb ik waarschijnlijk dik verkeer gespeld), dan kunnen zulke LLMs zichzelf heel snel gaan afbetalen qua energie.
Je moet zien dat dit soort base layer echt heel veel teweeg kan brengen als het (bvb) de hele wereld een ok-ish programmeur kan maken.

Sommigen zullen misschien zeggen dat kernfucici waarschijnlijk meer dan slim genoeg zijn om te programmeren, en slim genoeg zijn ze vast, maar ze hebben helemaal geen tijd of interesse om iets meer dan de absolute basis te leren. Als iemand van een technische universiteit kan ik je vertellen dat effectief programmeren absoluut niet voorkomt bij de gemiddelde student. Vaak eindigen ze met een belachelijk inefficient (laat staan herbruikbaar) Matlab model of eenof ander geflatselt script in R waar ze dan veels te veel uur in hebben gestoken.
LLMs zijn getrained voor hun antwoorden op de vele vele vele help antwoorden van vrijwilligers door de jaren heen. Ze kunnen zelf geen originele gedachten hebben.
Net zoals mensen, niemand verzint iets nieuws, het is allemaal combinaties wat we al gehoord hebben, compleet correct!
Als dat waar zou zijn, dan was er geen muziek, literatuur, ontwikkeling in wetenschap en eigenlijk alles...
Jouw verklaring zou betekenen dat we voor eeuwig vast blijven zitten op het primaten niveau
ja want we krijgen externe input via (bijvoorbeeld) beeld en geluid etc en gebruiken en te experimenteren om zo iets nieuws te construeren... 3x raden wat LLMs hedendaags ook binnenkrijgen. In ons brein gaat er echt helemaal niets speciaals rond, er komen niet magisch nieuwe dingen binnen, het is allemaal gebaseerd op kunnen redeneren over dingen en informatie effectief te kunnen combineren en gebruiken. Er is niets "origineels" dat in ons brein gemaakt wordt, het is allemaal, allemaal gebaseerd op iets.
Er is niets "origineels" dat in ons brein gemaakt wordt, het is allemaal, allemaal gebaseerd op iets.
Toch wel - we hebben namelijk een soort van ingebouwd besef dat dit brein zich vergist. Zelfs als we dronken zijn, kunnen we beseffen dat er iets niet klopt (gaat niet helemaal goed).
We kunnen dus nieuwe verbanden leggen zonder dat we daarvoor statistische input hebben.
Ook kunnen we fantaseren en dat beseffen (dus niet hallucineren).

Andersom als de huidige LLM dan net zo zouden werken als ons brein waarom is een (jong) kind dan al slimmer dan deze AI? (want een kind heeft echt minder data kunnen verwerken...)
een jong kind krijgt 2 dingen: persistence en memory.
zo'n LLM wordt op het moment getrained op one-shot problemen, vraag naar antwoord en dan duizend keer achter elkaar. Het wordt niet getrained op bijvoorbeeld het equivalent van 3 jaar interactie met anderen en de buitenwereld.

Ook als je bijvoorbeeld kijkt naar Claude Golden Gate (model getrained om het altijd over de golden gate te hebben, als een soort OCD tik), zie je dat het model zich makkelijk realiseert dat het fout zit en laat dus zien dat het wel mogelijk is maar dat het model, net als mensen, fouten maakt als het plausibel is dat iets waar is, zie hier: https://x.com/ElytraMithra/status/1793917556648296590
Muziek en literatuur zijn juist heel duidelijke voorbeelden hiervan.

Er is geen enkel liedje dat zich niet baseert op liedjes die ervoor zijn gemaakt.
Zo veel scifi literatuur is gebaseerd op Star Wars, wat gebaseerd is op Dune, wat gebaseerd is op de Bijbel.

Zo kan je elk van die dingen terug tracen naar de oudheid als je maar hard genoeg zoekt.

De meeste nieuwe dingen die we nu maken zijn gewoon combinaties van andere dingen.
En laat dat juist zijn wat LLMs ook doet.
Stellen dat voorgaande ideeen, invloed hebben op nieuwe ideeen is toch niet het probleem?
Niet kunnen beoordelen of in een groep waarin opeens iedereen gaat beweren dat 1+1 = 3, er sprake is van een vergissing van de meerderheid is het probleem van LLM. Statistiek is het enige wat telt.

Een kind vertellen dat de zon heel groot is zal kunnen leiden tot:
- slechts onthouden en niet betwisten ook al is het niet in overeenstemming met eigen waarneming
- wel betwisten maar onthouden
- totaal vergeten

Het vaker vertellen heeft niet automatisch een ander effect.

Een kind vertellen dat de kleur van zijn/haar true, bijv groen is wordt onthouden en vermoedelijk niet betwist - al na 1 keer vertellen! En kan derhalve het verschil zien in 2 truien op basis van kleur. Een LLM moet honderden foto's hebben gezien van truien en daarbij bijna evenveel bevestigingen dat die trui groen is.... wie is er nu slimmer?
Dat er iteraties plaatsvinden klopt natuurlijk. Maar het moet ergens mee beginnen. De Bijbel in jouw voorbeeld, dat komt niet zomaar ergens vandaan, dat is onze 'intelligentie' die ervoor zorgt dat we nieuwe dingen ontdekken en bedenken.
Soms gebaseerd op vorige ervaringen, soms geheel toevallig. Maar we hebben wél de mogelijkheid om die toevalligheden om te zetten in iets nieuws.
Dat is meer een filosofisch vraagstuk, maar ik vind het wel erg kort door de bocht om te stellen dat mensen geen originele gedachten (meer) hebben en enkel combinaties maakt van wat ze eerder al hebben gehoord.

Je trekt daarbij ook een vreemde parallel met LLMs. LLMs zetten woorden in de statistisch meest waarschijnlijke volgorde gegeven een taalmodel en een grote bak met data gegeven een bepaalde context. In tegenstelling tot een LLM, kan een mens wel een dieper begrip hebben van de informatie die is geleerd, en bijvoorbeeld wel de rekensommen maken waar een LLMs alleen maar over kan "praten".

Je geeft aan een technische opleiding te hebben genoten aan een technische universiteit. Ik ga er vanuit dat je dan ook bekend bent met het wetenschappelijke proces. Daarbij bouwen we voort op reeds bestaande kennis, synthetiseren we ideeën van anderen, maar worden er ook nieuwe ideeën ingebracht en verbanden gelegd die anderen niet hebben gemaakt. Dat brengt uiteindelijk ons begrip en kennis verder.

Een LLM kan wellicht wel uit verschillende velden informatie synthethiseren in één antwoord, maar het kan -- voor zover ik heb begrepen -- niet daadwerkelijk die informatie doorgronden en de logische gevolgtrekkingen maken.

Los van de vraag ofdat mensen originele gedachten kunnen hebben, stel je ook dat technici vaak belabberde, inefficiente code schrijven. Dat is zeker waar, maar who cares? Lang niet alles is performance gedreven. Ik maak bijvoorbeeld voor mijn werk regelmatig modellen om allerhande systeemparameters te bepalen, of om een ontwerpruimte in kaart te brengen. De code die ik daarvoor schrijf is lang niet altijd super snel, maar dat is ook niet erg. Als ik betrouwbare resultaten krijg, waar ik misschien 10 minuten op moet wachten, is dat nog steeds een passend resultaat.

Hetzelfde geldt voor veel mensen die dergelijk werk doen. Ook die kernfysici die je aanhaalt. Code die performant moet zijn, wordt geschreven door mensen die daar hun werk van maken. Wetenschappelijk programmeurs bijvoorbeeld.

Zijn er situaties waarin technici wel goede code moeten opleveren? Ja. Meer dan genoeg. Betekent dat iedereen moet leren programmeren of aan de LLMs moet voor betere code? Nee.
:X :X :X
voor bijvoorbeeld kernfucici (dat heb ik waarschijnlijk dik verkeer gespeld)
:z
Ik weet niet wat je precies wilde noemen, maar als je kernfysici bedoelde - meervoud van kernfysicus - ... Ja, dan heb je dat woord verkeerd gespeld. Net zo fout als het woord verkeer i.p.v. verkeerd. }>
Dik door het stof 8)7 Had het toch maar door chatGPT moeten laten nakijken!
Was een grapje. Open deurtje. ;)
Dat AI niks met wiskunde kan durf ik te betwisten. Hoe kan het anders dat ai ook bezig is met weersvoorspellingen?

nieuws: Google toont AI-model dat 'ongekend nauwkeurige' weersvoorspellingen ...

Dezelfde simulaties zullen ook gebruikt worden voor kernfusie.

Verder 'begrijpt' een ai misschien niks als je het vanuit een menselijk perspectief bekijkt. Het voorspelt alleen het volgende woord. Wat ai zo bijzonder maakt is de evolving wetenschap erachter. Als ik een vraag stel wat een bij personage in een boek zou doen in een bepaalde situatie, dam weet ai het antwoord daar 'vaak' op omdat het weet wat de beweegredenen en motivaties zijn van dat personages. Het doet een heel onderzoek voordat het dat volgende 'woord' voorspelt.
AI is in alle soorten en maten. Ze hebben AI ook sterrenkunde laten doen. en die kwam met berekeningen dat de zon het middelpunt van ons zonnestelsel is.

Maar dat zal waarschijnlijk geen LLM zijn.

Maar het menselijk brein heeft ook allemaal specialiteiten centra. Ik hoop dat AI dit ook gaat doen.
dat het LLM intern doet: Dit is een wiskundige vraag, ik pak er een reken machine bij
Stellen dat statistiek geen wiskunde is onjuist maar stellen dat wiskunde alleen statistiek is, is ook onjuist.

Het grappige is nu juist dat wiskunde heel goed zonder AI te doen is omdat het een fixed rule-set heeft.
Echter LLM AI gebruikt een heel ander model om antwoorden te fomuleren.
Inderdaad, LLMs zijn erg slecht met rekenen. Google had in de zoekmachine altijd gewoon een calculator zitten die juiste antwoorden geeft. Nu hebben ze daar "AI Overview" voor zodat je nooit meer last hoeft te hebben van correcte resultaten van simpele rekensommen.
Hoezo kan het kernfusie realiseren? De kennis van LLM AI is gelimiteerd tot de kennis van de mensheid.
Het kan voorspellingen . Simulaties draaien. Wordt al grootschalig gedaan.
Dat is geen LLM
Dat is zeker wel llm. Llm kan namelijk zelf simulatie software schrijven, en vervolgens uitvoeren en daar weer aanpassingen op doen. Het daadwerkelijk draaien gebeurt natuurlijk fysiek, maar wel op commando van de llm.
Ik vraag me af of wetenschappers met de juiste vragen wellicht een LLM verbanden kunnen laten leggen die de mensheid zelf nog niet ontdekt heeft. Ik denk eigenlijk van wel, maar je zal ook wel heel gericht prompts moeten maken. Volgens mij kan een LLM dan puur op basis van de manier waarop ze werken relaties leggen en inspireren tot oplossingen die niet eerder bedacht waren.

Dus niet zozeer iets nieuws uitvinden maar van bestaande kennis een brij woorden maken die een wetenschapper vooruit helpt binnen een specifiek deel van het probleem.

Puur omdat een LLM werkt op veel meer data dan een enkele wetenschapper, of zelfs een heel team, ooit in het leven kan lezen en onthouden.
Miaschien dat zon AI wel helpt om kernfusie te realiseren
Ik las de opmerking ook meer als: deze AI gebruikt zoveel energie dat de mensen (echte geleerden dus) meer moeite gaan doen om energie goedkoper te maken.... :Y)

Het idee dat een LLM iets slims ophoest wat niet al eerder bedacht is, zal berusten op puur toeval (dus een hallucinatie). Kan natuurlijk; niet alle uitvindingen zijn vooraf gegaan door veel denkwerk....
Op welke manier zou AI daarin helpen? Men kan wel steeds roepen dat AI van alles gaat oplossen maar metweinig concrete aanknooppunten is dat geen reden om maar steeds meer servers voor AI te bouwen is, want dat is wat mij betreft verspilde energie en geld.

[Reactie gewijzigd door separhim op 23 juli 2024 06:17]

https://deepmind.google/technologies/alphafold/
Is er een goed voorbeeld van, maar of "grok AI" dat soort dingen gaat doen is nog maar de vraag.
Nou, AI wordt op dit moment dus ingezet om plasmavorming in tokamak-achtige reactoren te voorspellen en daarmee de magneten te moduleren.
Dus waar jij aan twijfelt is al werkelijkheid.

Maar helaas is het zo dat op dit moment grote bedrijven als google, microsoft etc gigantische serverparken neerkwakken zodat AI's leuke kattenfilmpjes kunnen produceren. En dat is best wel een probleem als je ziet hoeveel energie zoiets opslobbert. Helaas krijgen de gebruikers dat niet te zien dus die gaan vrolijk door met kattenfilmpjes genereren en klimaat verueuken...
Volgensmij vergeet jij de 2030 en 2050 doeleb waar ook bedrijven aan moeten voldoen.

MS is hard op weg en azure is het zuinigste data center op dit moment.

Bedrijven krijgen gewoon een jaar overzich van hun azure co2 verbruik en moeten dat opgeven voor de milue wet.

Geen idee hun een musk dat op lost met zijn super computer maar zal wel een zonnepark langs komen staan.

Denk ook dat trainen van ai geen 365x24 is dus ze kunnen ook tesla neural net trainen etc.
Je bedoelt op Mars.
Das wel heel negatief noem eens 1 reden waarom hij zou frauderen.
Leugens over FSD
wat is daar aan gelogen dan,

FSD werk toch gewoon binnen de limieten van de wetgeving en autonoom lvl 4-5 zijn toch pas in de toekomst beloofd.
Mensen gingen 30000$ (of 20000$, ik ben kwijt wat het exact was) per jaar verdienen met hun tesla door via fsd deze aan te bieden aan anderen als taxiservice. En dat in 2018 als ik het me goed herinner.

En dat is maar eentje van de tientallen beloftes dat ie tegenover aandeelhouders en klanten heeft gemaakt. Beloftes die nooit uitkomen.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 06:17]

En volgens welke wet mag dat,

En wie met zijn gezond verstand doet dat.

Er is een groot verschil tussen strategic marketing en corruptie.

Hele moderne marketing op inet is een grote leugen maar die worden ook niet aangeklaagt omdat het een "you could" case is.


Voor wat jij beschrijft is autonomie lvl 5 nodig technische en per wet., daar zijn we nog lang niet heeft musk ook zelf aangegeven. En kun je bij tesla gewoon checken en zullen zij ook aangeven.

[Reactie gewijzigd door Scriptkid op 23 juli 2024 06:17]

Heb anders al een aantal keer gehoord dat fsd het volgende jaar klaar is. En dat het nu al kan. Al in 2017 volgens Elon. Net zoals dat een tesla in 2018 zonder iemand in de wagen van oost naar westkust kan rijden van parking naar parking.

Het is allemaal geclaimed door Elon. Samen met 100e andere dingen die gewoon niet waar zijn. Maar waar hij wel doelde op meer sales te maken. Zodus fraude. Een andere auto dan een tesla kopen was in 2017 zoals nu een paard en kar kopen. Zover staat al de rest achter volgens Elon.

Je kan er werkelijk een boek over schrijven, wat zeg ik. Een volledige trilogie.

Elon is op men radar gekomen door waitbutwhy.com die destijds een 3 delig artikel heeft geschreven over Elon. Ik was fan. Maar dat is indertussen laaaang geleden. Wat een zeveraar is het ondertussen.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 06:17]

Again geeen fraudde maar een opertunistische market tweet.

Net iets te snel en te veel data, geen moedwillige fraude.
Zo kan je dit altijd wel wegzetten.
Maar na Elon zijn track record is het wel duidelijk, niet? Hij doet dit ondertussen al minstens 7 jaar. En dat met verschillende bedrijven. En elk jaar meerdere malen.

Er zijn er die voor minder, meer dan een decennia vastzitten.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 06:17]

Ik train mijn hond om trucjes te leren. Theoretisch is het mogelijk dat het daarmee, al dan niet per ongeluk, kernfusie kan realiseren.
We zullhet vragen hoe we een kernfusie reactie in stand kunnen houden :)
Ik denk niet dat een huidige AI gaat bijdragen aan kernfusie. Het is een LLM, de huidige meest geavanceerde versie, Chat GPT kan nauwelijks natuurkundige vraagstukken op begin middelbare school niveau oplossen. Intelligentie is de vaardigheid om snel een probleem in de juiste context te plaatsen om te zoeken naar een oplossing. AI in zijn huidige vorm kan dat absoluut niet. Het is een leuke tool voor taal analyses, opstellen van tekst, maar echt technologische vraagstukken, daar zijn we nog lang niet.
Alleen de meeste AI's (zeker de openbare zoals deze, OpenAI, LLama) hebben en krijgen niet de technische kennis over kernfusie. Dus die kan daar niet bij helpen.
Misschien dat de sientific papers die publiek beschikbaar zijn er wel in komen en de AI daar een begrijpelijke samenvatting voor kan maken. Maar verbeteringen aangeven in formules of ontwerp; nee.
De huidige AI zijn Large Language Models. Die herhalen en hercombineren informatie uit hun trainingsdata. Goed om dingen te genereren die weinig intelligentie vereisen maar wel relatief veel arbeid vragen.

Maar de state of the art van de kennis of het inzicht de mensheid verderduwen zal deze vorm van AI nooit kunnen.
Zit ik hier op Tweakers of nu.nl...
Kern fusie is altijd over twintig jaar....

Dat dacht men in 1980 een nu nog steeds...

Gaat ai niet mee helpen
Onzin, als je je een beetje inleest....

Weer je dat het zo is, men rekent nu puur met input een output qua energie....

Als je je een klein beetje inleest zul je zien dat er uiteindelijk in totaal 3 tot vier keer zoveel energie kost als dat er uit komt.

Er wordt alleen gefocused op het fusie moment, de rest wordt voor het gemak buiten beschouwing gelaten.

Deze kennis zag ik zomaar in het schap bij het Kruidvat liggen. Maar dat wist jij natuurlijk al vandaar dat je meer door verwees.

Als je twaalf minuten over hebt kijk dan hier ff naar...
YouTube: How close is nuclear fusion power?

[Reactie gewijzigd door well0549 op 23 juli 2024 06:17]

En ineens zjin alle klimaatambities van big tech verdwenen.
Dat is dus het grote probleem. Er is te weinig ruimte en politieke wil om die doelstellingen te halen via kernenergie, zon en wind. In onze streken in wind goedkoper dan gas dus dat zou geen probleem mogen zijn maar door één of andere reden wil de industrie wel meer groene energie maar lukt het overheden niet om dat effectief voor elkaar te krijgen. Enkel Frankrijk gaat all in voor AI CO2 arm te laten verlopen.

Als je dan ziet dat zelfs vooraanstaande landen zoals Nederland en Duitsland compleet vastlopen omdat ze te weinig geinvesteerd hebben in electrificatie dan besef je hoe diep we zitten met onze klimaatambities. Als je wil dat Big Tech werkt op groene energie moet er eerst een Europees kader komen waarbij er gegarandeerde goedkope CO2 arme energie te beschikking komt. Dat kan door een combinatie van kernenergie, zon en wind.

Technisch is dat perfect mogelijk maar politiek ligt dat heel erg gevoelig en niet iedereen wil investeren in kernenergie, EV's, batterijen, AI systemen etc. Zolang onze klimaatambities niet op orde zijn kan je van big tech niet verwachten dat ze alles voor ons oplossen.

Ook in Amerika heeft de olieindustrie nog erg veel macht en zolang we die niet de kop kunnen indrukken blijven we in cirkels lopen.
Het gebruik van kernenergie (of niet) is een andere discussie. Kernenergie produceert geen CO2 (als de bouw eenmaal is afgerond), maar ander klimaat onvriendelijk afval.

AI gebruikt tijdens het testen heel veel energie, daarna gewoon veel. Bij het toepassen van AI wordt juist weer energie bespaard. Alleen kijken naar de energie die het AI gedeelte kost is dus maar de helft van het plaatje. Om het plaatje compleet te maken moet je ook naar de besparingen bij de toepassingen kijken.

In mijn geval kan ik soms met AI in vijf minuten iets doen waar ik anders een hele dag voor nodig zou hebben. Mijn computer kan dan in theorie na zo'n 10 minuten weer uit. In de praktijk ga ik dan natuurlijk verder met de volgende klus, maar op het eerste klusje heb ik zo'n zes uur à 40 Wh bespaard.
Kernafval heeft geen enkele impact op het klimaat. Het kan wel impact hebben op het millieu, maar ook dat is verwaarloosbaar, mits je het goed opbergt.
Elke verandering in het milieu heeft ook een invloed op het klimaat. In theorie maakt het zelfs uit of jij zwarte of witte tegels in je tuin legt. Het effect is misschien klein, maar het is er wel. Als men in de steden overschakelt op wit asfalt kan dat de temperatuur in de stad in de zomer zelfs met twee graden laten dalen!

De impact op het milieu zou ik niet verwaarloosbaar willen noemen. Zelfs als het radioactief afval veilig wordt opgeborgen, heeft de winning van uranium zeker lokaal een enorme impact op het milieu.
Als ze het kernafval dan in witte containers plaatsen zal het kernafval een positieve impact hebben op het klimaat. Wat jij wil ;)

Milieu en klimaat zijn niet dezeflde dingen. Stoffen die van invloed zijn op het klimaat hebben ook een uitwerking op het milieu. Andersom hoeft dat absouluut niet zo te zijn.
Ik heb milieukunde gestudeerd en ben 25 jaar in dat vak actief geweest. De laatste jaren daarvan heb ik ook heel veel aan klimaatmodellen gerekend. Ik ken inmiddels heel veel zaken die impact hebben op zowel het klimaat als het milieu. Een verandering in het milieu heeft bijna altijd gevolgen voor het (micro) klimaat. Een verandering in het klimaat hoeft niet altijd effect te hebben op een milieu. Diepzee en woestijn zijn bijvoorbeeld redelijk stabiel, ondanks veranderingen in het klimaat. Een kleine verandering in het woestijn milieu kan al gevolgen hebben voor de neerslag in dat gebied.

Het winnen van uranium (open mijnen) heeft zeker een effect op het lokale klimaat. Of het ook een wereldwijd effect heeft is wat anders.
Van Wikipedia:
"Milieu of omgeving is, in de biologie en de ecologie, het geheel van uitwendige voorwaarden en invloeden die voor een organisme, hetzij dier (inclusief de mens), plant of micro-organisme, van essentieel belang zijn"

Je draait mijn stelling om en zegt dat het klimaat geen effect hoeft te hebben op het milieu. Als het klimaat verandert (lees: neerslag, temperatuur, etc), hoe kan dat dat geen invloed hebben op organismes, dieren, etc? Zoals ik al zei: klimaat heeft altijd impact op het milieu, andersom hoeft dat niet zo te zijn.

Of je nou 1kg of 10.000 kg nuclair afval onder de grond stopt, dan gaat dat geen invloed hebben op het klimaat.Over het winnen van uranium heb ik het verder niet gehad, alleen over het afval.
Ik draai jouw stelling bewust om, omdat jouw stelling niet klopt.

Een (kleine) verandering in het klimaat hoeft helemaal geen invloed te hebben op het milieu. De diepzee is bijvoorbeeld een milieu waar een verandering in het klimaat niet zoveel invloed heeft. In een woestijn maakt een graatje meer of minder niet veel uit. Een verdubbeling van de hoeveelheid regen maakt ook niet veel uit. Veel milieus hebben ook wel mechanismen waardoor ze zich aanpassen aan het weer. De aanpassing aan het klimaat kan gemakkelijk binnen de aanpassingen aan het weer liggen.

Als je het over de klimaat impact van kernenergie wilt hebben, moet je natuurlijk niet alleen naar de output kijken, maar naar het hele plaatje. De input (uranium en het winnen daarvan) hoort daar net zo goed bij. Ook de stikstof en CO2 belasting tijdens de bouw moet je meenemen. Die zijn tijdelijk, maar kunnen zo hoog zijn dat ze wel invloed kunnen hebben op het milieu.

Persoonlijk vind ik kernenergie geen nette oplossing om aan onze energie vraag te voldoen omdat we vele generaties na ons met ons gevaarlijke afval opzadelen. Zonder kernenergie zal de energie voorziening echter niet stabiel genoeg zijn. Het is dus een noodzakelijk kwaad.
Kernafval stelt echt niks voor. Echt overtrokken angst en zorg daarover.

Weet je wat wereld-bedreigend afval is? Co2 uitstoot!

[Reactie gewijzigd door PjotterP op 23 juli 2024 06:17]

Kernafval is wel degelijk gevaarlijk en blijft dat ook heel lang. Natuurlijk kan je het "veilig" opslaan, maar niemand weet nog voor hoelang de huidige oplossingen inderdaad veilig zijn. Ze vergen in elk geval actief onderhoud. Rond Chernobyl bewijst dat de natuur zich best aan kan passen aan de hoge stralingsdoses, maar mensen kunnen daar voorlopig niet leven. Van de huidige opslagplekken in de wereld zullen er (bijna) zeker één of meer problemen gaan geven.

CO2 uitstoot is niet te voorkomen. Elk levend wezen doet dat. De excessieve uitstoot van industrie en verkeer is inderdaad wereld-bedreigend. De klimaat veranderingen die dat nu al heeft veroorzaakt zorgt voor een groot deel de natuurrampen, met enorme kosten. Het ons wapenen tegen andere natuurrampen (zoals de zeespiegelrijzing) kosten ook miljarden.
Bij chernobyl speelde er heel andere zaken. Een ingesmolten en onplofte RMBK reactor vol met hoog radioactief materiaal is iets anders dan de zeer beperkte hoeveelheden zwaarder kernafval dat van moderne kerncentrales afkomstig is. Voor het overige gaat het om veel lichter afval dat in 100jaar vervalt.

De vergelijking met chernobyl is echt absurd.

[Reactie gewijzigd door PjotterP op 23 juli 2024 06:17]

Ik haal Chernobyl er niet bij om aan te tonen dat radioactief afval gevaarlijk is (al is de centrale dat nu eigenlijk wel), maar juist als een voorbeeld hoe de natuur zich aan kan passen aan gebieden met hoge radioactieve straling.
In strikte zin kan zelfs de mens daar leven, maar het leven zal kort zijn. Velen zullen ook afwijkingen hebben of krijgen. Voor de muizen, zwijnen en honden die er leven accepteren we dat nu, maar voor een mens niet.
Sterker nog het afval kan brandstof zijn van een ander type reactir of plasma fusie.

Hellion heeft dat al eens voorgesteld om 1 reactir de brandstof voor 7 fusie reactors te laten maken
Ik wil jou wel zien rondlopen in een klimaat van radioactief afval 🤪
Volgens mij is kernfusie niet hetzelfde als kernsplitsing (wat de huidige kerncentrales gebruiken) en is kernfusie in theorie heel erg 'schoon' (geen radioactief kernafval).

Maar ook als iets een ander soort afval produceert wat we beter kunnen verwerken, dan is het ook al een 'win'.

Dat jij nu een tool (=AI)gebruikt om een taak sneller te doen is precies de reden dat we als mensheid meer energie zijn gaan gebruiken. We verzetten natuurlijk ook wel meer werk maar we verbruiken derhalve steeds meer energie. Dat loopt gelijk op met technologische ontwikkeling.

Dus stellen dat AI energie bespaart is helaas niet waar. En we zouden af moeten van het idee dat we energie willen besparen - mensen willen hun eigen energie besparen en minder betalen voor energie....
Kernfusie is voorlopig nog toekomst muziek.
Overall zal AI binnen redelijke termijn tijd en energie gaan besparen. Helaas zijn wij mensen en gaan we de bespaarde tijd weer andere dingen doen die ook energie kosten. Uiteindelijk zal het energiegebruik misschien wel omhoog gaan, maar dat komt niet door de AI, maar door ons eigen handelen.
Zolang onze klimaatambities niet op orde zijn kan je van big tech niet verwachten dat ze alles voor ons oplossen.
Niet om je aan te vallen, want in principe heb je gelijk, maar in dit geval ligt het toch iets anders. Als Big Tech iets gaat oplossen, dan hebben we het over iets dat bestaat en nu veel stroom vreet en dat opgelost moet worden. In dit geval gaat het over ons Alfamannetje dat weer de grootste ==) wil hebben en dat het veel energie gaat kosten, bovenop wat de Big Tech al gebruikt.
Ziet het toch ook in de politiek?

Zou het allemaal populariteitspoppenkast zijn voor zelfverrijking onder het mom van 'wat de maatschappij wil' maar is het eigenlijk bemeten rond de marktmakende/manipulerende media die wil mee liften op de meest dramatische en spraakmakende, extreme en uiterste commercie en consumentenvraag? (clicks please)

Soort van zelfverziekende (polariserende) feedbackloops met volatiele/extreme uitwerkingen in plaats van een gezonde en verstandige middenmoot en beleid?

ie. "ik weet wat er in de wereld speelt want ik lees het 'nieuws'" maar net zozeer een slachtoffer.

Vergroening/verduurzaming had een hoop moeten opleveren maar blijkt vooral duur en onhaalbaar.
AI is de nieuwe bubbel, stroomverbruik mag niet over gesproken worden want oa. bitcoin, etc.
Dit soort (groene) doelen is daar ondergeschikt aan andere.
Vooral de US markt en media is doortrokken van bias en agenda en die beïnvloed Europa ook.
Zo zie ik vrijwel dagelijks Nederlanders die om Trump schreeuwen, zelfs als ze niet doorgronden wat het voor Europa, Nederland betekend. Komisch.

Point being: het gaat vooral om de centjes, marktmaken, overdreven hot topics, vanalles... maar;
Wat goed is voor de mens is ondergeschikt aan de (potentiële) financiële winst en andere dwaze motivators zoals simpelweg er bij willen horen.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:17]

Je hebt op zich een punt, maar ik vind het potentiële stroomverbruik naar AI-onderzoek in elk geval een stuk zinvoller dan een advertentieverkoopplatform a la Facebook/Instagram/X/TikTok/YouTube/enz.
Echter Grok is geen AI onderzoek maar enkel weer een service waar wij links of rechtsom voor gaan betalen. Dus uiteindelijk is dit echt zo anders dan Meta? Misschien een andere service maar uiteindelijk niets meer dan weer een service die centen moet opleveren om die 24 miljard valuatie waar te maken.
??

De ambities zijn realiteit geworden. Tijd voor nieuwe ambities.
AI kost stroom, maar door het toepassen van AI wordt weer veel energie bespaard. Vraag ChatGPT voor de grap maar eens naar voorbeelden. Je krijgt er echt meer dan genoeg.
"Wij van WC-Eend geven aan dat WC-Eend goed voor het milieu is."
de gpu's gebruiken om oplossingen te zoeken natuurlijk. /s
Het zou natuurlijk mooi zijn als we hier betere modellen mee kunnen realiseren. Dat kan schade en kosten besparen.
Het voordeel is dat dit wel het net ontlast... 8)7
Gezien Elon eigenaar is van SolarCity kunnen we ervanuit gaan dat het voornamelijk gevoed wordt door zonnepanelen.
Big tech heeft geen klimaatambities, alleen pogingen om goodwill en subsidies te verzamelen; als ze echt ambities hadden zouden ze hun verbruik minimaliseren, maar dat levert ze geen geld op.
Elektriciteit vanuit fossiele brandstoffen is gewoon te goedkoop.
Ceterus paribus wel ja, maar er valt meer te kiezen als maatschappij.

Misschien is minder vaak een nieuwe iPhone uitbreiding bijvoorbeeld wel te verkroppen.

Mijn reactie was in de eerste plaats gemotiveerd omdat het sentiment dat AI te veel stroom gebruikt heel kortzichtig is. Er zit een prijs op stroom en die wordt bepaald middels een markt. Alle afnemers hebben dezelfde rechten lijkt me, ik zie geen enkele reden om AI in een uitzonderingspositie te plaatsen.

Als je beweert dat AI te veel stroom gebruikt zeg je volgens mij niets anders dan dat er te veel stroom gebruikt wordt en dus dat stroom te goedkoop is. Het slaat nergens op om groene stroom (even aangenomen dat dat echt duurzaam betekent) te goedkoop te vinden, dus mijns inziens kunnen alle berichten die zagen over het stroomgebruik van AI herleidt worden tot de oorzaak dat fossiele energie nog te goedkoop is, en dat heeft ook nog eens niets met AI te maken.
Hoe vaker ik dit soort cijfers hoor, hoe meer ik respect krijg voor het wonder dat in ons eigen hoofd zit. Een super computertje met general purpose intelligence dat op een paar watt draait. En dat al voor de prijs van een leuke avond met z’n 2-en.
Zit ook wel miljoenen jaren aan evolutie in :) moet je kijken hoeveel energie dat gekost heeft! :)

[Reactie gewijzigd door PjotterP op 23 juli 2024 06:17]

Die investering zet de ‘post-money valuation’ op 24 miljard. Oftewel, ze hebben 6 miljard betaald voor 25% van de aandelen. Maar niet elk aandeel is hetzelfde en dus is niet elk aandeel evenveel waard, je kan dus niet zeggen dat het bedrijf 24 miljard waard is. Daarom blijft ft.com, de aangehaalde bron, ook vasthouden aan post-money valuation.
Ah ja, "next year". Dat is wanneer alle beloofde produkten van Musk klaar zijn.
En in deze sector is een jaar een eeuwigheid.
Ik meende eerst 'Grot' te lezen.. ik dacht gelijk aan de Duitse SF film Metropolis uit 1929 waarin Grot de Hoofdtechnicus/ bewaker is van de 'Hartmachine'... Musk houd wel wat Grootsheid (Wahnsinn)
Ah, die film wil ik nog een keer kijken
Opmerkelijke film, maar de film M is nóg beter, ook van Fritz Lang
Hoe wil xAI dat terugverdienen? Want volgens mij was het toch de bedoeling dat open source te maken? En bovendien hebben bedrijven zoals een microsoft, Google en aws al een serieuze bestaande klantenportefeuille en zie ik die hun klanten niet meteen overstappen naar een bedrijf waar de ceo een bedenkelijke reputatie heeft.

Het is niet zoals in de ruimtevaart dat hij enorm goedkoper gaat kunnen zijn op een redelijke niche markt.
Het zou geen bedrijf van Musk zijn als er geen X in zit :P
Is hij ook CEO of de bestuursvoorzitter?
Enige wat ik van dit bericht dacht... "hopelijk wordt het niet Skynet".
Hopelijk word Grok ook snel actief hier in Nederland. ChatGPT slaat vaak echt de plank mis. Google's nieuwe AI is echt hilarisch fout. Die hebben de slechtste bron op aarde (Reddit) gebruikt om hun AI te trainen, met alle absurditeiten van dien.
Ik krijg hier -1 voor maar wat is die man de weg kwijt als je zijn gedrag op X ziet.
De gast is voor de een of andere reden heel rechts politiek gegaan waar hij soms de meeste debiele commentaren geeft. Kan je toch echt niet als "normaal" beschouwen.
Verwijderd @k99526 mei 2024 12:05
Extreem is het nieuwe normaal schijnbaar. Je ziet het overal, niet alleen bij 'way out there' Elon. Van iemand in een unieke positie verwacht je het bijna.
Maar op de werkvloer, binnen de familie. Zelf betitelde experts met een overdreven/extreme mening.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:17]

Extreem is het nieuwe normaal schijnbaar.
Neen dat blijft extreem hoor, misschien lijkt je dat zo als je ergens in een bubbel zit maar niet in de maatschappij.

Het gaat hier niet over je oom die al decenia op migranten kapt natuurlijk maar de rijkste persoon ter wereld met een enorm bereik die blijkbaar het nodig vind om compleet ongeinformeerd (en dus compleet verkeerd) commentaar te geven op een kleine niks betekendende rechtzaak in belgie .
Verwijderd @k99526 mei 2024 13:34
Hoewel ik begrijp wat je bedoelt, het er persoonlijk mee eens ben, weet ik dat wiskundigen en andere gedachtendeciplines dat niet zo vanzelfsprekend vinden.
Zo kan een gemiddelde statistisch irrelevant en veranderlijk zijn. Ondergeschikt aan de overheersende onwillekeurigheid.

Een logical fallacy en een hoop/aanname, misschien.
Ik ga ook uit van niet, door overwegend bewijs over t, desalniettemin een aanname. ;)

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:17]

Dat het gemiddelde opschuift kan ik me goed voorstellen echter zoveel zoals jij laat uitschijnen is gewoonweg niet correct.

Cultureel bijvoorbeeld schuiven we duidelijk op naar links, wat vroeger onaanvaardbaar (homosexualiteit bv) was is nu gewoon aanvaard and wordt als normaal gezien door een meerderheid van de mensen (70-90%).
Verwijderd @k99526 mei 2024 13:56
Nou, daar zijn de meningen dus over verdeeld.
De maatschappij lijkt in toenemende mate onderhevig aan veranderingen in een kortere tijd door de invloed van extreme uitersten. Het lastige is, volgens sommigen, dat deze veranderingen worden doorgevoerd maar elk, bijna exponentieel, voor meer compensaties/veranderingen zorgen.
Mijn laatste voorbeeld is natuurlijk een uiterste.

Kenmerkend tegenwoordig is dat "iedereen" "vanalles" wil veranderen en de autoriteit van orde niet respecteert.
Voornamelijk uit veel kortzichtige en eigenzinnige overwegingen in plaats van geheel.
De ironie is dat we het normaal moeten vinden.

Het interessante is dat "extreem rechts" en "extreem links" als soort van grote verdrukker of vrijheidsstrijder denken 'kalmte' te bewerkstelligen maar juist het conflict oplaaien.
Om nog maar niet te spreken over hoe men het (voor zichzelf) rationaliseert en gebaseerd waarop. Heel uiteenlopende cults en zelfs conspiracy volk.
De vorige keer kregen we types als A. Hitler cadeau. Aan de andere kant mensen als "alles kan als je maar gelooft en dat MOET jij respecteren, ook geloven zelfs, sukkel". Heel verontrustend, onwerkbaar.
De norm zelf is daarmee in het geding.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:17]

Ik denk dat je visie heel sterk gericht is op zaken zoals sociale media of politiek want neen in de algehele bevolking zelf speelt dit niet zo, amper zelf. Daar verplaatsen meningen zich heel langzaam.

Het ging hier erover of de extremen van vroeger de norm nu geworden en is en neen dat zijn ze niet.
Iemand zoals musk is een uitligger zeker gezien hoe hij op social media doet.
Verwijderd @k99526 mei 2024 16:32
Ik denk dat je niet volledig begrijpt wat ik schrijf, vanuit waar en waar om.
Dat blijkt uit dat je mijn woorden verkeerd opvat, er zelf richting aan geeft en ontoepasselijke conclusies uit trekt. Zelfs waarover ik het uitgesproken eens ben.

Geen probleem.
Jz schijfstijl maak je nodeloos ingewikkeld en langdradig maar ik begrijp maar al te goed wat je bedoeld en ik ben het er niet mee akkoord. Dat is alles en idd dat is geen enkel probleem.
Verwijderd @k99527 mei 2024 11:46
Prima joh, ff simpel dan: de hele wereld bevindt zich in een staat van oorlog en extreme paraatheid maar omdat een stel ingebubbelde naïevelingen het interessanter vinden om te overleggen welke lease auto ze toch zo graag willen, bestaat het probleem niet.

Bovendien heb ik het over gedrag en principes, logica, juist omdat dit 'welles nietes' 'jij nee jij' nodeloos gebrabbel is.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 06:17]

Dat deed ik langs geen kanten hoor, ik ging gewoonweg niet akkoord met je aanames.
net zoals hier: nee niet de "hele wereld" is in oorlog og extreme staat van paraatheid. Dat heeft trouwens weinig met dit te maken.
Hij gedraagt zich als een kleuter, als jij dat niet kan zien dan ben je wellicht zelf een kleuter.
Een van zijn meest recente tweets was een oproep om familie foto's te uploaden. Eerst en vooral; heel ironisch van hem. Ten tweede, welke zot gaat familie foto's uploaden op Twitter? Waarom zou je tussen alle bots en porno familiefoto's met je kinderen op willen hebben? En hoe out-of-touch is Musk om dat niet in te zien?

Ik zocht gisteren nog iemand op Twitter met de naam "Mark". Man, dat was een gigantische vergissing... De zoekresultaten zijn gewoon stuk voor stuk porno, ne als het geen porno was, was het een advertentie (en zelfs daar zit tegenwoordig sexuele content tussen). Bijna iedere query die je in de zoekbalk stopt heeft het. Vaak begint het met een paar normale tweets, vooraleer het weer allemaal porno wordt.

De enige manier om een fatsoenlijke ervaring te hebben op Twitter is door mensen te volgen, alleen de "Following" tab te gebruiken, en absoluut nergens op te klikken. Zelfs niet op de tweets in je following feed, want als er minstens één reactie op is, dan is er een goede kans dat het porno is (of "pics in bio").

En Musk wil dat je daar familiefoto's upload.
Ik zie dat dus niet als ik een dergelijk zoekwoord opgeef. Ligt dat niet gewoon aan je zoekopdrachten uit het verleden?
Eerst en vooral hebben we het op Twitter absoluut niet alleen over soft porn. Ten tweede hebben andere platformen fatsoenlijke moderatie tools om dat tegen te gaan en filters om dit te verbergen. Ten derde staat op andere platformen die porno ook niet in iedere reactiesectie voor iedere post die daar mijlen ver iets mee te maken heeft...

Absoluut geen vergelijkbare situatie. En whataboutism is absoluut geen excuus.
Goh, ik was het eens met je bericht tot die laatste zin waarbij je je zeer klein toont.

Elon Musk heeft immens veel volgers, dus wat hij zegt heeft veel invloed op de leefwereld van veel mensen. Daar mag toch wat nuance en filtering op zitten? Ik weet niet wat hij allemaal zegt, het interesseert me ook niet, maar als je zoveel impact hebt, hoef je niet alles zwart/wit te benoemen.
LOL, wat een vreemde reaktie. Je kunt blijkbaar niet zo goed tegen argumenten in een klimaat discussie, want dat zijn emotioneel zwakke reakties van slecht opgevoede kinderen door emotioneel zwakke ouders.
Waarom heb je het nodig dat je een ander minderwaardig maakt? Omdat je je er goed bij voelt want jij bent zo niet. Klassiek voorbeeld van een emotioneel minder sterk iemand.

Dit is geen verassend bericht van Musk en ook niet controversieel wat hem betreft. Het is een megalomaan die de grootste en dikste wil hebben. Het zal je toch opvallen dat het bericht niet gaat over wat hij nou wil bereiken met die supercomoputer. Nee, maar het is VIER keer groter dan de concurrent. Een prestatie? nee natuurlijk, je flikkert gewoon de snelste hardware bij elkaar. Wat een visieloze man.
Net even gekeken want ik was weer even van dat giftige medium af maar hij is inderdaad iets beter bezig maar wat ik heb gezien was puur hitsen met memes of andere gekkigheid. Kortom not done om je zo te gedragen.

"Heeft allemaal met opvoeding en pampering door zwakke ouders en een zwakke samenleving te maken".....Hou toch op met dit soort uitspraken, puur gewoon met manieren te maken

[Reactie gewijzigd door Marcbr op 23 juli 2024 06:17]

“Hard times create strong men. Strong men create good times. Good times create weak men. And, weak men create hard times.”

― G. Michael Hopf, Those Who Remain.
Zo zwak, er zijn er zelfs die er niet tegen kunnen dat we de miljardair die ze aanbidden bekritiseren, beginnen dan te wenen en al.
LOL "zwakke" samenleving, tijd dat je wat minder extreem rechtse propaganda opslokt.
Dat is gewoon klinklare onzin "voor je rechten opkomen" (wat er hier gebeurt) is iets van alle tijden en zeker niet enkel van links
Marcbr geeft gewoon aan dat hij Elon Musk zijn uitspraken niet correct vindt. Jij begint meteen over getriggerd worden en een safe space nodig hebben. Jij maakt het groter dan het was... Soit...
Kan je nagaan dat hij dus niet eens beseft dat hij zelf de gene is die getriggerd wordt en dus erg gevoelig is voor andermans mening. Nul komma nul zelfreflectie |:(
Hahaha, ik had het over jou. Jij bent de getriggerde. Moet je kijken hoe vaak je reageert omdat één persoon deelt wat hij Elon ziet doen op X.

En dan andere mensen er van beschuldigen. Ik zou serieus even in de spiegel kijken als ik jou was.
Wat ik leer van een greep van zijn tijdlijn van de afgelopen 2 dagen is samengevat het volgende:
  • Hij retweette een video om journalisten af te schilderen als slecht, dus ik kijk alvast uit naar weer een of ander verhaal over hem dat hem in een slecht daglicht stelt voor geldige redenen.
  • Hij retweet een hoop video's over democraten die iets zeggen, waar hij dan een geheel andere betekenis aan geeft. (E.g.: een video van Schumer die zegt dat immigraten kunnen worden gebruikt om de teruglopende populatie groei tegen te gaan en het gebrek aan werkkracht in de VS te drukken. Hij maakt daar van dat democraten illegale immigranten willen gebruiken voor meer stemmen. Hij weet verdomd goed dat dat totaal niet zo werkt. Hij heeft overigens erkent dat een teruglopende bevolkingsgroei een probleem is, maar hij ziet veel liever dat vrouwen als broedmachines worden gebruikt en hun "klassieke rol" terug aannemen.)
  • Hij schildert WhatsApp af als onveilig omdat deze "exports your user data every night". Dat is geheel niet wat er aan de hand is in wat er gerapporteerd werd (vreemd dat hij dit wel gelooft trouwens, alleen maar als het hem goed uitkomt blijkbaar).
  • Even verder haalt hij aan dat "social media is bad for kids", zeer ironisch komende van de man wiens sociale media vol porno staat. Zelfkennis is het begin van alle wijsheid, I guess...
  • Dan retweet hij nog een video van een conversatie waarin Ted Cruz het schandalig vindt dat een transgender vrouw (welke opgesloten is wegen pedofilie) wordt overgeplaatst naar een vrouwengevangenis omdat hij vindt dat deze persoon een gevaar tot verkrachting is voor de vrouwen in die gevangenis en dat geen gevangenen dat verdient. De clip is heel handig geknipt zodat de reden van het aanvragen van de overplaatsing uit de conversatie is gehaalt. De reden voor de oververplaatsing? De vrouw was al meermaals verkracht in de mannengevangenis waarin ze was opgesloten.
Ik bedoel... tenzij je graag iemand volgt die blijkbaar helemaal niet zelfbewust is en constant alles verdraait en liegt terwijl hij schreeuwend loopt te roepen dat iedereen die tegen hem is alles verdraait en liegt is het zeker op zijn plaats om op zijn minst een keer achter je oren te krabben wanneer je een van zijn tweets tegen komt.

En zoals ik eerder al heb gezegd, even hiervoor suggereerde hij om familiefoto's te uploaden naar Twitter. Als je echt hulp nodig hebt waarom dat een slecht idee is: Loller1 in 'Gerucht: Elon Musks xAI werkt aan supercomputer voor volgende Grok-AI-model'
De linker kant van de Democraten is nog rechtser dan de rechter kant van de VVD...

USA <> Europa
Als je dat in 1990 had gezegt had je gelijk. De huidige generatie democraten zitten op het niveau van groenlinks en veel zitten daar aan de linker kant van. De VVD was vroeger een rechtse partij maar zijn tegenwoordig center-links. Center-rechts hebben we FvD en Ja21. De enige echt rechtse partij is de LP maar die krijgen geen stemmen.
Nou kom ik niet zo vaak in Nederland, maar de VVD presenteren als een linkse partij, klinkt mij wat raar in de oren.

De Democraten presenteren als Groen Links, sluit evenmin aan bij wat ik hier (California) om mij heen zie. Het district waar wij wonen stemt al een eeuwigheid Democraten, maar zien Nederland ook als bijna een communistische samenleving. Iets wat zij absoluut niet zouden willen. Veel belasting betalen om bijvoorbeeld te spenderen aan onderwijs, Nee! Dezelfde hoeveelheid geld in de vorm van fundraisers uitgeven aan onderwijs, Ja. Men wil zelf bepalen waar het geld aan wordt uitgegeven, zonder inmenging van de overheid. Dat is niet waar Nederland voor staat, ook de VVD wil niet bijvoorbeeld de btw verlagen tot een 0 of 8 procent (laag en hoog), etc.
VVD was vroeger rechts, maar dat zijn ze al jaren niet meer.

Ik volg sinds pakweg 2015 de Amerikaanse politiek op de voet. Elke dag. Californie is echt een drama. Wat Newsom en consorten de staat hebben aangedaan is echt ronduit schandalig. Newsom is een linkser dan GroenLinks type. Ik kan mij die app nog herinneren om menselijke poep aan te geven. De hele staat Californie was bruin. Ik ken meerdere Nederlanders die (nu nog) in Cali wonen omdat ze voor werk die kant op zijn verhuisd maar willen vertrekken. Ze werken voor organisaties als Stanford/Google/SpaceX etc. Als ze de kans krijgen, zijn ze weg. Ze willen naar Texas en Florida verhuizen. Californie heeft gigantische belastingen, gigantisch veel criminaliteit, gigantisch veel drugs overlast, zowel door zwervers als andere junkies. Waarom denk je dat Florida en andere staten zo veel overlast hebben van cali's die verhuizen? Er is notabene een hele serie gemaakt over de grap dat al die mensen uit Cali verhuizen naar Texas om daar proberen de boel net zo slecht te krijgen als in Cali. Vorig jaar was er nog een poll waaruit bleek dat 40% van de mensen in Cali de staat wil verlaten, op zoek naar een beter leven. Newsom staat bekend als de "uhaul salesman of the year", omdat ze bijna een jaar lang volgeboekt zaten voor verhuisbussen.

Ik had de droom om naar Amerika te verhuizen (vandaar dat ik zoveel Amerikaans nieuws lees), maar het gaat daar hard achteruit. Zeker de laatste 3 jaar is het echt heeeeeel hard achteruit gegaan, dusdanig dat de VS de rente op de staatsschuld niet meer kan betalen. De VS is failliet. Let's go Brandon.
Sorry hoor, maar wij wonen hier in LA en wat jij beschrijft, vanuit Nederland?, sluit niet aan bij wat ik hier zie. En California is nog steeds de staat met de meeste inwoners. Hoge(-re) criminaliteit is te wijten aan het feit dat LA de op één na grootste metropool is, daar heb je nou eenmaal altijd meer criminaliteit. Maar nog altijd veel minder dan wat ik elders ter wereld tegenkom. Criminaliteit is in diverse andere staten hoger, en Texas is zeker niet veiliger. Aantal moorden ligt in Texas boven het gemiddelde in de USA, in California ligt dat juist onder het gemiddelde. En ik raak liever m'n auto kwijt, dan m'n leven.

Florida is al sinds jaar en dag populair bij de gepensioneerden, maar niet wanneer je ook nog moet werken. Toevallig zaterdag met een vriend over gehad, hij heeft vrij veel onroerend goed in Florida met als reden dat je daar onbeperkt de huur kunt verhogen en zonder al te veel moeite de huurder er uit kunt gooien. In California gaat dat niet omdat huurders hier enige bescherming hebben. Maar zelf verhuizen naar Florida is uitgesloten, hij moet er niet aan denken om daar te wonen.

En die 40% waar je naar verwijst, waarom verhuizen die dan niet? Zo moeilijk is dat niet, spullen pakken en wegwezen. Maar ja, geen werk...

Verder is de USA niet meer failliet dan de EU en ze hebben een veel dynamischer economie. Wij hebben ons plekje wel gevonden hier in California!
Lekker met memes lopen hitsen en ander populistisch geneuzel, je mag het mag het ergens mee oneens zijn maar die manier lopen hitsen is is kansloos. Succes ermee. 100% ook nog eens zijn, nou nou vind dat altijd maar eng om te horen terwijl je andere mensen (volgzame?) schapen noemt.

[Reactie gewijzigd door Marcbr op 23 juli 2024 06:17]

In deze overgevoelige wereld neemt iedereen memes te serieus. En hij heeft evenveel recht op freedom of speech als jij.
Ik niet, neem ze verre van serieus maar als je serieuze issues wil aankaarten door de andere partij voor gek te zetten door een gekke meme ben je bij mij aan het verkeerde adres. En uiteraard heeft iedereen recht op freedom of speech, maar moet daar altijd wel beetje om grinniken dat men daar zo prat op blijft gaan, er zijn natuurlijk bepaalde gedragsregels en die lapt hij aan zijn laars. .

[Reactie gewijzigd door Marcbr op 23 juli 2024 06:17]

100% eens klinkt weinig objectief
Who is more foolish. The fool, or the fool who follows him?
Ach, als je het zo bekijkt ben jij ook een 'schaap'.
Maar dan in een andere kudde.
100% eens zijn met iemand anders is de definitie van een schaap.

Op dit item kan niet meer gereageerd worden.