GitHub wordt al maanden overspoeld met malafide repository's als onderdeel van een zogeheten dependencyconfusionaanval, stellen securityonderzoekers van beveiligingsbedrijf Apiiro. Legitieme repository's worden nagemaakt en gevuld met malafide code.
Cybercriminelen klonen bestaande repository's, voegen malware loaders toe en zetten deze op GitHub onder een naam die identiek is aan de legitieme versie. Via een geautomatiseerd proces wordt de repository duizenden keren geforkt, waardoor er talloze forks verschijnen met namen die identiek zijn aan het originele project, ontdekte beveiligingsbedrijf Apiiro. Cybercriminelen hopen dat ontwikkelaars per ongeluk zo'n malafide versie downloaden in plaats van de echte. Via deze repository's wordt malware verspreid die bijvoorbeeld wachtwoorden of cryptocurrency steelt.
Volgens Apiiro speelt de aanval al sinds mei vorig jaar, al is de aanvalstactiek in de tussentijd iets gewijzigd. In mei vorig jaar werden packages naar PyPI geüpload en vanaf daar via calls in forks van populaire GitHub-repository's geplaatst. PyPI verwijderde deze packages, waarop criminelen malafide repository's direct naar GitHub begonnen te uploaden. Sinds november zijn zeker 100.000 repository's nagemaakt, maar mogelijk gaat het zelfs om miljoenen, schatten de onderzoekers.
Een deel van de aangemaakte forks wordt snel weer verwijderd. GitHub herkent namelijk wanneer er geautomatiseerd forks worden aangemaakt, waarna deze offline gehaald worden. Toch worden veel repository's overgeslagen, ziet Apiiro. Bovendien wordt een deel handmatig aangemaakt, waardoor deze niet worden opgemerkt. Door de grote schaal van de aanval en doordat de aanvalsketen geautomatiseerd is, 'komt de 1 procent die de detectie wel overleeft nog steeds neer op duizenden malafide repository's', zeggen de onderzoekers.
GitHub spreekt de inschatting van Apiiro tegenover Ars Technica niet tegen, maar wil geen verdere vragen van het Amerikaanse medium beantwoorden. In een verklaring zegt het platform hard te werken om een veilig platform voor ontwikkelaars te bieden, met speciale teams die content die de voorwaarden schendt detecteren, analyseren en verwijderen. Dat gebeurt zowel met handmatige controles als met machinelearning. "We moedigen leden van de gemeenschap en klanten ook aan om misbruik en spam te rapporteren."