Apple lost iPhone-bug op die 'Trump' toont als gebruikers 'racist' zeggen

Apple zegt dat het werkt aan een bugfix waarbij iPhones in sommige gevallen het woord 'Trump' zien als gebruikers het woord 'racist' zeiden via de tekstdicteerfunctie. Het bedrijf geeft daar verder geen verklaring voor.

Apple zegt tegen de Associated Press dat het werkt aan een fix voor de bug. Het bedrijf zegt alleen 'op de hoogte te zijn van een probleem in het spraakherkenningsmodel achter de Dicteer-functie' en dat het dat probleem woensdag nog wil oplossen.

Het specifieke probleem is er een dat eerder op woensdag rondging op sociale media. Gebruikers die een tekst inspraken via de Dicteer-functie en daarin het woord racist gebruikten, zagen dat de tekst kort werd aangepast naar Donald Trump. De AP zegt dat er sommige voorbeelden online rondgaan waarin dat ook gebeurt bij andere woorden die met een r beginnen, maar dat het die niet kon reproduceren. Apple noemt geen mogelijke verklaring voor hoe het kan dat iPhones het woord Trump laten zien.

Door Tijs Hofmans

Nieuwscoördinator

26-02-2025 • 20:34

120

Submitter: Noxious

Reacties (120)

Sorteer op:

Weergave:

De wegen van auto-correct en dergelijke functies zijn ondoorgrondelijk. Persoonlijk vind ik het nog steeds grappig dat, hoewel Trump al aan zijn tweede termijn als president is begonnen, mijn auto-aanvullen achter “Donald” nog steeds koppig “Duck” plakt.
Het zou me eigenlijk niet verbazen als dit iemand is geweest die de pest had aan hun werk of onjuist behandeld was. Want het is wel heel typisch. Op die manier kan je het bedrijf enorm fucken want Trump gaat daar razend om worden.
Ik denk het ook, of geeneens ongelukkig maar meer vanuit activisme. Ik vind het een mooie bug, van mij hoeven ze het niet op te lossen.
Nou dan rasist vervangen door proleet hij weet toch niet wat het betekend ;)
Jij hebt autocorrect niet aanstaan, volgens mij
Persoonlijk heb ik liever "Duck" als automagische aanvulling dan "Trump". Geeft me toch een ander gevoel bij de auto-correct/aanvul functie :)
Dan moet je waarschijnlijk licenties aan Disney betalen 😊
Auto-correct vs auto-ongekuk
Nou wat dus een ding is, is user behavior. Vet irritant, want dat betekent dus dat die autocorrect op een gegeven moment jouw fouten over gaat nemen. Als jij moedwillig een woord steeds verkeerd typt en de verbetering een paar keer revert, dan denkt ie op een gegeven moment ja doei, ga ik niet meer aan beginnen en dat nieuwe suggestie ding hanteert dan die specifieke spelling van iets.

Neemt niet weg dat bij mij ook het enige woord waar ie mee komt "Duck" is.

Persoonlijk heb ik dergelijke zooi liever uitstaan, want in 9/10 gevallen werkt het helemaal niet goed. Zeker als je vaak van taal wisselt.
Je kunt dat op een iPhone gewoon uitzetten. Zelf maak ik er vaak gebruik van want het werkt prima ook als je meertalig typt.
Bij Nederlands en Duits heeft hij vaak de eerste letter nodig om het juiste woord te vinden, maar bij Engels en Spaans staat het correcte woord vaak al voorgetypt.
tuurlijk kun je het uitzetten. dat is ook het eerste wat ik doe, maar dat nieuwe suggesties ding (met AI) kun je niet per se uit zetten nog. Mogelijk een andere setting, maar ik heb em nog niet gevonden.

Werkt redelijk met engels, maar niet als je een beetje "irritant Gen Z slang denglish" typt wat ik nog best wel vaak doe.
Instellingen > toetsenbord > voorspellende tekst (3e schuifbalkje).
Dit probleem heb je met veel afkortingen die een variant op een bestaand woord zijn. De organisatie “NWO” wordt zo ge corrigeert tot “Now” in word en consorten
Heb ik het al gehad over het ongebreideld veranderen van kleine letters naar hoodletters na een punt of aan het begin van een invoerveld? Heel irritant in sommige gevallen
Maar onmisbaar in andere. Op een full size keyboard is het geen punt, maar als ik op een telefoon handmatig in hoofdletters, spaties na een punt etcetera zou moeten gaan invoeren wordt dat ook een frustrerende aangelegenheid.
Nu moet je regelmatig het omgekeerde doe op een telefoon zoal b.v. Hier en o.a. Bij deze afko. Ook.
Heb ik het al gehad over het ongebreideld veranderen van kleine letters naar hoodletters na een punt of aan het begin van een invoerveld?
Maar ook dat kun je afzonderlijk uitzetten? Zelfde als "." bij dubbel spatie.
Je kan op Gboard ook gewoon eventjes wachten tussen je eerste en je tweede spatie. Dan verloopt de periode waarin dubbel-spatie een punt invoegt. :)
Geen idee wat Gboard is, maar dat werkt überhaupt gewoon op alle Apple devices. Ook op de macs, nu net nog geprobeerd.
Dit is precies hoe vrijwel alle artificial intelligence algoritmes werken… ze nemen de input aan als waarheid.
AI kent geen "waarheid" alleen statistische relevantie. Als het antwoord op een vraag statistisch gezien vaak "banaan" is dan is de kans groot dat een AI relatief vaak dat antwoord geeft op een semantisch gelijkwaardig opgebouwde vraag.
idd, ik vind Engelse termen zoals "I'm" en "I've" lastig in te typen omdat je van keyboard moet switchen, de autocomplete zou daarbij handig zijn... ware het niet dat als ik "ive" intyp de enige suggestie "ivermectin" is omdat ik dat wel eens ingetypt heb. Je zou denken dat het systeem slimmer is dan dat tegenwoordig.

D'r was ook een tijdje dat scheldwoorden in de autosuggest kwamen (ze hadden daar een instelling voor gemaakt) maar dat lijkt er weer uit te zijn.
Overal of alleen bij zoeken in DuckDuckGo? Want dan snap ik het wel.
Apple is dusdanig van de eendenliefde dat het een wonder is dat ze de PETA nog niet achter zich aan hebben gekregen.
Die gaat ook opgeheven worden 'te inclusief'. Eenden zijn immers geen blanke mannen.
Zou dat niet komen doordat, zoals je ziet lf ook doet in je comment, de meeste mensen Trump zeggen ipv Donald Trump? Overigens krijg ik wel als suggesties achter "Donald" "Trump" en "Trump is", dus zou ook kunnen dat jij jouw autocorrect geleerd hebt om daar Duck van te maken.
Mijn vermoeden is dat er een programmeur van Apple of de AI dienst een grapje heeft ingebouwd. In Microsoft Office kwamen ook dergelijke features voor in het verleen of mogelijk nog steeds.
Can your "auto-complete" replace "Trump" with "Trumpelstiltskin"?
Apple noemt geen mogelijke verklaring voor hoe het kan dat iPhones het woord Trump laten zien.
Language models zijn vrij goed in het vinden van verbanden tussen individuele woorden.
data-bias is ook een ding, laat ons vooral niet doen alsof er nergens bij Apple een gefrustreerde democratische programmeur kan rondlopen die een diepgewortelde haat tegenover hem koestert.
Ofwel de correlatie tussen Racist en Trump is gewoon aldaar. Met zijn standpunten over immigratie en de uitspraken die hij doet en mensen over hem doen is het niet ongewoon. Misschien dat die autoifill dan in de toekomst ook gaat voorkomen bij het woord leugenaar.
Nee. En dit is een goed voorbeeld waarom bijna alle artikelen over dit onderwerp (inclusief dit Tweakers artikel) deels clickbait zijn: het bleek dat er bij meerdere woorden die met de letter R beginnen kortstondig Trump in beeld kwam (oa ramp, rhubarb, rhythmic en ruffles). Maar dus ook 'racist', want ja, dat begint met een R. Echter, een nieuwsartikel met de kop 'Apple lost bug op die 'Trump' toont als gebruikers 'rhythmic' zeggen' scoort niet zo lekker.
Met als gevolg dat half goedgelovig internet dus meteen begint met 'Zie je wel, ook computers zien het verband tussen Trump en racisme'.
"De AP zegt dat er sommige voorbeelden online rondgaan waarin dat ook gebeurt bij andere woorden die met een r beginnen, maar dat het die niet kon reproduceren. "
"In our own informal test, CNET was not able to get iOS version 18.1.1 to display the word "Trump" when using words including "racist," "rhubarb," "rhythmic," "ramp" or "ruffles." The New York Times reported that it was able to replicate the issue several times."
Bij sommigen wel, bij sommigen niet dus. Maar zoals gezegd, Trump linken aan racist is echt heerlijk voor je clickbait. Ik wil niet zeggen dat hij dat niet is, maar er zijn dus meerdere motieven om die link te maken. Zie ook: overal een hitlergroet in zien.
Het is absoluut clickbait, uiteraard. Maakt het niet onwaar, op zich, maar het is een keuze van de woordjes waarbij je 'Trump' zag - en het had minder nieuws geweest als het niet het woord racisme was. Eigenlijk dus best wel niet-nieuws.

Wel anders dan de hitler groet, denk ik - zeker by Steve Bannon zitten we nu wel in "doet het expres" fase. Maar ja, daar is het natuurlijk weer een gevalletje - shockeren om aandacht te krijgen. Musk is geen Nazi - veel van zijn denkbeelden zitten wel in de fascistische en white nationalist hoek, op zich, maar ik denk niet dat ie echt pro het uitmoorden van de joden is. Wel beetje voor het 'witte ras', denk ik, maar in elk geval is zijn gedrag vaak meer trollen en shockeren en aandacht zoeken. Hij is natuurlijk een enorm onzeker iemand. Het schoolvoorbeeld dat geld en macht niet gelukkig maken.

En, in geval van Bannon - die wil ook specifiek dit soort taal en uitingen, racisme en fascisme dus, normaliseren. Dat is een strategisch, politiek project. Als je dan flink extreem gaat zitten, extremer dan wat je echt vind, dan legitimeer en normaliseer je de minder extreme uitingen die dan normaal worden. Die man doet dat zeker expres want dat zegt hij ook gewoon. Slim, natuurlijk, en er zijn zat van dit soort projecten, van allerhande ideologie, die dit doen.

Bijv in de VS heb je sociale zekerheid wat hernoemd is naar "entitlements". Dat is echt een meesterzet, zet gewoon alle mensen die van sociale zekerheid afhankelijk zijn in een hoekje als profiteurs. Fundamenteel niet zo anders als joden 'ratten' noemen, hoor, alleen wat minder extreem. Je noemt joden ratten als je ze wilt uitmoorden, je noemt uitkeringen 'entitlements' as je ze af wilt schaffen. Aan de andere kant kun je het hebben over de klimaatramp als je bedrijven die vervuilen keihard aan wilt pakken. Taal kan veel impact hebben.

Trump is er goed in dat te bespelen - nu ben ik het politiek erg met hem oneens, dus vind ik dat eng, maar het is natuurlijk net zo eng om een Fidel Castro of Hugo Chaves te hebben, die deden dat ook zo in hun tijd. Het enge is de schade die Trump op het moment doet aan de 'guard rails' in de VS. Als de volgende amerikaanse president ene linkse versie van Trump is dan kan die enorm veel schade doen, dankzij alle taboes en processen die nu kapot worden gemaakt. Dus dit kan, ook als Trump geen dictator wordt, uiteindelijk wel het begin van het einde van de democratie in de VS blijken.
Zover ik weet, werkt het suggestiemechanisme net zoals bij typen. Dat wilt dus zeggen dat het letter voor letter "binnen komt". Wij zien het allemaal snel gebeuren, maar in de code kan het nog steeds één voor één in de rij gezet worden. Het is dus goed mogelijk dat wat achter de eerste letter "r" komt er niet toe doet want, in dat geval, kon die suggestie software de rest van dat woord niet "zien".
Trump heeft Apple er onlangs op aangesproken dat ze hun diversiteitsbeleid moeten stoppen (Apple weigert). Dat nu deze ‘bug’ verschijnt is opmerkelijk ‘toevallig’.

[Reactie gewijzigd door Rembert op 27 februari 2025 22:02]

Correlatie, geen causatie. Net zoals zijn ambt rond die periode is begonnen en al zijn beleid die vooral nadruk hebben op migranten en sociale voorzieningen waar ook veel gekleurde amerikanen afhankelijk van zijn last van hebben. Nog los van de walgelijke uitspraken in geopolitiek die hij maakt. Ook correlatie, maar dat is nou net waar zo'n model in getrained wordt. Echter zou hij ook getrained moeten worden in het detecteren van foutieve correlatie en zichzelf moesten testen daarop.
Ik werk voor een veel kleiner bedrijf dan Apple en bij ons zijn er slechts 3 developers die code kunnen pushen naar de mainbranch zonder voorafgaande review door andere programmeurs, en dat mag dan nog enkel in uiterste nood gebeuren.
Ik ben er vrij zeker van dat een miljardenbedrijf als Apple nog striktere regels zal toepassen.
Het idee dat 1 rogue programmeur zomaar iets kan introduceren in productiecode is iets uit Hollywood of iets van 25 jaar geleden.
Dat zal zeker gelden voor code, maar in hoeverre is de tekstdicteer bibliotheek code? Dat zal naar mijn idee eerder een database zijn waarin makkelijker correcties door een gebruiker kunnen worden toegevoegd.
Alles is code in één of ander manier, want je moet altijd ergens iets kunnen matchen. Alles in software gebeurt stapsgewijs, één voor één worden bits in een rijtje geplaatst, al gebeurt dat héél snel in vergelijking met wat wij als individuele stappen aanzien.
En hoe vaak worden grote PRs volledig nagelezen? Meer dan eens per dag wordt hier eens snel diagonaal doorgegaan...
Bij de bedrijven die ik ken.. altijd. Soms duurt het eindeloos voordat een PR er doorheen komt, dat is mijn ervaring. Zeker in vakantieperiodes e.d. Maar ook dat gebeurd niet overal gelukkig. Genoeg bedrijven waarbij bepaalde personen de hele dag PRs aan het bekijken zijn.
hoeveel lijnen code denk je dat er in zo'n model zitten? Easter eggs bestaan al tientallen jaren, de ene al wat geiniger en/of uitgebreider dan de andere, het moet niet per sé 1 persoon zijn en als je voor elk woord dit gaat proberen uit te sluiten, dan zou je al een language-model moeten schrijven voor de controle van je language-model :/
hoeveel lijnen code denk je dat er in zo'n model zitten?
Geen. Een model is expliciet geen code. Het is data.
Hoe kom je daar nou weer bij 8)7
Als jij iets invult kom er magisch het juiste op je scherm? Je zal toch code moeten schrijven die aangeeft hoe je "model" moet "leren" (tijdens het trainen maar ook het up to date houden van het model) en hoe die input moet verwerken tot output.
Ik denk bij zo'n uitspraak bijvoorbeeld aan safetensors. Die bevatten voor zover ik begreep expliciet geen code om te voorkomen dat er kwaadaardige zaken draaien.
Een soort van versleuteling komt regelmatig voor, en dat de promotie van een executabele naar productie altijd goed wordt gecontroleerd is misschien vaak zo, maar in de praktijk gebeurt dit niet altijd even zorgvuldig.
Dat zag je ook wel bij de Crowdstrike bug, net zo'n soort geval van onzorgvuldigheid in de OTAP controle.

Procedures zijn goed voor de ISO certificering maar de praktijk is weerbarstiger.
Die programmeur hoeft uiteraard niet per se de democratische partij aan te hangen, maar ik begrijp dat die gekleurde bril moeilijk is af te zetten.

Trump heeft ook buiten zijn eigen landsgrenzen invloed, blijkt maar weer.
Data bias my @$$. Er is niets biassed aan Trump racist noemen. Hij is het en bovendien is hij er nog trots op ook.
up your @$$ dan maar. Het gaat over een dicteer-functie die je gesproken woord in tekst moet omzetten. Hoe kan je linguïstisch gezien dit zo fout interpretteren terwijl de 2 woorden fonetisch gezien ( [trʌmp] vs [ˈreɪsɪst] ) zo gigantisch verschillen?
Het gaat niet om linguistiek, maar om de resultaten van een zoekopdracht waar een LLM aan denkt als het woord [ˈreɪsɪst] wordt genoemd. Dat zijn totaal verschillende takken van sport.
omdat twee woorden vergelijken stapsgewijs gebeurt tussen de woorden met daar bovenop, wanneer er matches zijn, een prioriteit gebaseerd op hoeveel gelijkaardigheid en/of een factor van kansen, en niet kortweg in een fonetische vorm wordt beluisterd.
er wordt letterlijk 1 bestaand Engelstalig woord gedicteerd
Data-bias, uiteraard. Ik wist ook niet wat het was , dus ol denk zoek het even op Google images. Iets van #30. Maar het is dus wel zo. :+
Gefustreerd of objectief?
Ik denk dat je niet biased moet zijn om te zien dat trump de stereotype rechtse rakker is? 🤷‍♂️
Als het kwaakt als een eend dan is het volgens een reasoning model een eend.

Het heeft een reden dat men Grok moet gaan tunen via prompts om bepaalde negatieve verbanden niet te leggen tussen Musk en Trump, terwijl ik niet denk dat het overloopt met gefrustreerde democratische programmeurs bij xAI…

Zelf het censuur via een deepseek model zit niet in het model zelf maar in het prompten, daarom zie je in de reasoning process toch die data of bedenkingen verschijnen.
Als ik in google images "racist president" in typ zijn van de bovenste 16 resultaten:
  • 8 Trump
  • 2 historisch
  • 1 Biden (heeft het over racisme bestrijden)
  • 1 Harris (gaat over racisme tegen haar)
  • 4 overig
Je hoeft je weights niet te biasen als de dataset al het resultaat geeft dat je wil :Y)
je geeft het perfecte voorbeeld. Ik ben er zeker van dat je dataset van loud obnoxious republican rich racist president with slovenian model wife ook volledig zonder objectief zal zijn.
als je 1 woord ingeeft en dat is het resultaat, dan zou dit dus ook in alle andere zoekmethodes als het meest voorkomende resultaat naar boven moeten komen als daar tenminste niet toevallig dezelfde "bug" in zou zitten.
Ik ben alvast benieuwd welke uitleg "Tim Apple" aan zijn nieuwe/oude goeie vriend gaat geven waar hij voldoening mee zal nemen.
Wel eens op 'idiot' gezocht in Google Images?

Edit: wat :') dat werkt niet meer. Voor 20 januari kreeg je keurig Trump als eerste hit.

[Reactie gewijzigd door doltishDuke op 27 februari 2025 08:51]

Dat is nog niks. Biden zei ook:

Over Obama in 2007: “the first mainstream African-American who is articulate and bright and clean and a nice-looking guy."

Over immigranten uit India in 2006: "You cannot go to a 7-Eleven or a Dunkin’ Donuts unless you have a slight Indian accent. I’m not joking."

Tijdens een campagne in 2029: “Poor kids are just as bright and just as talented as white kids,”

Over Latino's vs. African Americans: “Unlike the African-American community, with notable exceptions, the Latino community is an incredibly diverse community with incredibly different attitudes about different things.”
Bij de eerste twee dacht ik, tijd voor een link. Bij nummer drie moest ik grijnzen. Well done :D
Maar wat een troefkaart nou met racist te maken heeft?
Niet te veel deugen.
Ik denk dat het gewoon een rogue developer was die het niet eens met Trump is.
Op basis van welke feiten kun je die mening precies onderbouwen?
Ik vermoed dat dit een ingebouwde bias is door een individuele, boze medewerker.
Wordt de dicteerfunctie gevoed met correcties die door gebruikers worden ingevoerd? Dus als een woord verkeerd herkend wordt en je corrigeert het, wordt dat teruggevoed aan het algoritme?

Je zou dan denken als veel mensen steeds racist zeggen en het corrigeren naar Trump dat misschien dit effect heeft.

Of is dat te ver gezocht?
Bij instellingen > algemeen > toetsenbord heb je een menu ‘tekstvervanging’.

Voor de grap voor een collega heb ik er ooit eens ingezet dat als ik “water” typ, er “cava of wijn” in de plaats verschijnt.
Geen dicteerfunctie maar een dictatorfunctie dus.
Een autocomplete / LLM kijkt gewoon welke woorden het vaakste dichtbij elkaar te vinden zijn.
Dit is duidelijk geen bug maar "as designed" :D
Siri die Trump tevoorschijn tovert bij 'racist'? Tja, zelfs AI heeft soms een gevoel voor drama, of gewoon een slechte dag op de algoritmeboerderij.
Overduidelijo geen bug want dat kan niet. Ik gebruik open modellen voor dergelijke zaken en ja dat ze tussen twee woorden switchen en er dan een kiezen is normaal. Wat en dat bijvoorbeeld. Maar die woorden moeten dan heel erg op elkaar lijken waarbij die in beide woorden een hoge kans acht. De lettergrepen en klant tussen racist en trump hebben niets met elkaar te maken dus dit kan niet. Geen enkel open model ook de kleinste die veel fouten maakt zal deze fout ooit maken. Dit is 100% zeker opzet.
Typisch iets van een zeer haatdragende Apple medewerker, lijkt me.

Vind het volkomen ongepast en zeer onprofessioneel om zo je afkeer van iemand anders te uiten. Zeg het dan gewoon op een social media account en aanvaard de consequenties: iemand zo maar voor racist uitmaken lijkt me strafbaar.

Ik hoop dan ook dat dit voor de medewerker een staartje krijgt.
>> iemand zo maar voor racist uitmaken lijkt me strafbaar.

Iemand die zegt dat Mexicanen allemaal maar verkrachters en drugshandelaars zijn niet uitmaken voor racist lijkt mij dan weer vreemd...
Doe jij dat op uw werk ook? Tijd stoppen in politieke boodschappen tijdens de werkuren, die iedereen dan nog eens te zien krijgt...
Geen idee waar dit een reactie op was, maar volgens mij heeft dit niets met de strekking van mijn bericht te maken. Misschien fout begrepen of zonder context?

Edit - volgens mij miste ik de context :) neuh, deze dingen in je product inbouwen lijkt me helemaal geen goed idee.

[Reactie gewijzigd door _Pussycat_ op 27 februari 2025 08:17]

Nee en het kan toch ook niet strafbaar zijn om het te zeggen als het gewoon waar is. Zeker omdat hij een blanke drugshandelaar gratie heeft gegeven.

Apple heeft echter wel een mogelijkheid tot een civiele zaak als het inderdaad een werknemer is geweest.

[Reactie gewijzigd door Llopigat op 27 februari 2025 06:59]

Alle Mexicanen? Het is een feit dat dit niet waar is en eentje die zo makkelijk te bewijzen is dat het heel raar is dat jij de leugens blijft herhalen. Heb jij last van de zelfde hersenrot als Trump?

Op dit item kan niet meer gereageerd worden.