Google heeft limiet van vijf miljoen bestanden ingesteld in Drive

Google heeft een limiet ingesteld voor de hoeveelheid bestanden die gebruikers in de Drive mogen opslaan. Het is nu niet meer mogelijk om meer dan vijf miljoen files op te slaan, ook als de opslaglimiet dan nog niet is overschreden.

Afgaande op meldingen van gebruikers, heeft Google de limiet al in februari ingesteld, zonder het aan te kondigen. In eerste instantie kregen gebruikers enkel een pop-up waarin stond dat 'de maximale hoeveelheid bestanden' is overschreden. In maart werd de notificatie verduidelijkt naar: "Dit account heeft meer dan vijf miljoen bestanden aangemaakt. Om meer bestanden aan te maken, moet je eerst de overtollige bestanden in de prullenbak plaatsen en permanent verwijderen." Er was al een limiet op de hoeveelheid bestanden die via Google Drive gedeeld mogen worden, 400.000, maar dit is voor het eerst dat er een aanmaaklimiet is ingesteld.

Google Drive pop-up
De pop-up die verschijnt als gebruikers meer dan vijf miljoen bestanden hebben aangemaakt in Google Drive

Een Google-woordvoerder heeft aan ArsTechnica bevestigd dat dit geen bug is, maar een bewust ingestelde limiet. Er is hiervoor gekozen om 'te voorkomen dat ons systeem wordt misbruikt op een manier waarbij de stabiliteit en veiligheid van het systeem wordt aangetast'. Ook laat de woordvoerder weten dat de limiet enkel geldt voor de hoeveelheid aangemaakte bestanden per account en niet voor alle bestanden in een Drive. Indien meerdere gebruikers een Drive delen, mogen ze dus allemaal maximaal vijf miljoen bestanden aanmaken. Het aantal getroffen gebruikers is daardoor 'verwaarloosbaar klein', voegt Google toe.

Door Kevin Krikhaar

Redacteur

02-04-2023 • 11:44

126

Submitter: YvesL

Reacties (125)

Sorteer op:

Weergave:

Vijf miljoen bestanden lijkt natuurlijk gigantisch veel maar soms verbaas je je ervan hoe snel dat aantal kan oplopen. Kan mij best voorstellen dat iemand die veel foto's maakt via zijn smartphone dat dan het aantal bestanden snel kan oplopen. Maar toch vraag ik mij ergens wel ietwat af waarom het aantal bestanden nu te maken heeft met misbruik. Mij lijkt toch dat de inhoud van de bestanden meer bepaald dan het aantal bestanden.
Als je elke dag 1000 fotos Upload en dat al tien jaar lang, zit je op bijna 4 miljoen. zelfs de grootste instagrammer/selfie lover zal dat toch nog niett halen -hoop ik
Maar het zijn niet altijd foto's he. Soms heb je een project met al 1000-en bestanden van soms maar 1kb bijv.
Zulke projecten kun je misschien beter als zip opslaan in de cloud.
Klopt. Maar er zijn vast gebruikers die andere dingen opslaan dan enkel foto's.
* oeps

[Reactie gewijzigd door tERRiON op 22 juli 2024 21:06]

Tenzij je een sync agent ofzo hebt draaien die een aantal directories automatisch synchroniseert. "Lekker makkelijk als backup."

En ja, leg dan maar eens uit dat dit misschien wel lekker makkelijk is maar misschien niet als backup.
Als professionele fotograaf die misschien 5/6 dagen per week werkt en per shoot 1500 foto's maakt, kom je daar dus wel aan. Dat zijn echt geen raar aantal foto's per shoot en vaak moet je ook de meest mislukte foto's bewaren als eis van opdrachtgever.

[Reactie gewijzigd door ro8in op 22 juli 2024 21:06]

en ga je die dan 10 jaar bewaren?
Maar hier zie je wel weer de nadelen van de cloud, als ze hun voorwaarden gaan aanpassen ben je gewoon de sjaak.
Je wil niet weten hoe vaak een opdrachtgever opeens om foto's van 10 jaar terug vraagt. Als je die kan leveren tegenover fotografen die dat niet kunnen heb je toch weer een streepje voor.
In foto's lijkt 5 miljoen me nog steeds een enorm aantal hoor. Misschien voor professionele fotografen die jarenlang dagelijks honderden foto's schieten en die samen met alle outtakes willen bewaren, maar de doorsnee gebruiker zal nog niet snel 5 miljoen foto's naar de cloud pompen gok ik, zeker anno 2023 nog niet. Dan mag je namelijk eerst even 15 jaar bijna een duizendtal foto's per dag schieten. Ik zou niet weten waarvan. De gemiddelde telefoon (in mijn omgeving) schiet enkele honderden of duizenden, maximaal een enkele uitschieter naar 10.000 tot 20.000 tijdens de hele levensduur van het apparaat (meerdere jaren).

Daarentegen denk ik veel eerder aan grotere tech projecten/archieven met allerlei (ongebruikte) assets, betanden en code. Als je er daar een aantal van upload zie ik je in ieder geval wel eenvoudig aan minstens één miljoen komen. Maar denk dat dat misschien ook de Tweaker in mij is en dat opslagruimte op dat moment een grotere zorg is.

- edit : het is natuurlijk niet fotograven maar fotografen -

[Reactie gewijzigd door crazyboy01 op 22 juli 2024 21:06]

Misschien voor professionele fotograven die jarenlang dagelijks honderden foto's schieten en die samen met alle outtakes willen bewaren,
Denk dat eerder de amateur fotograaf meer foto's zal bewaren dan een pro-fotograaf omdat een pro-fotograaf al vrij snel een selectie zal maken van goede shots. En tja vergeet ook niet jonge ouders die pas hun 1ste kind hebben en vaak dan bijna elke beweging op de foto zetten. Maar oke, zeker 5 miljoen is veel en ik er in elk geval nooit aan zal komen want ik gebruik geeneens Google drive.
Wat als je libraries van iconen hebt?
Dat zijn mini images.

Maar ik denk dat het vooral source code van devs een probleem zal worden.
Of back-ups van systemen (kijk maar eens hoeveel bestanden je hebt op je c drive)
- edit : het is natuurlijk niet fotograven maar fotografen -
Tenzij ze ook een bepaalde adelijke titel hebben. :+
Ja hoor om misbruik te voorkomen. Dus omdat ze geen fatsoenlijk systeem hebben gecreert om dit te voorkomen. Worden nu normale consumenten er de dupe van. Klinkt meer als een excuus ,.
Welke normale consument heeft er 5 miljoen bestandjes op drive staan, ik kan er geen user case voor bedenken momenteel.

Je praat echt over hele kleine bestandjes wil je die 5 miljoen in het 2TB program halen. Met foto’s, video’s etc is het niet eens haalbaar schat ik in.
Het is dus niet alleen consumenten die er last van hebben, maar ook bedrijven en in het linkje geeft iemand al aan dat in de VK de dierendoctors praktijken hier nu heel veel last van hebben.

Google Drive heeft verschillende storage plans 1TB, 2TB, 5TB, onbeperkt.

5 miljoen bestandjes op 1TB is gemiddeld 0,2MB per file. dat is ongeveer een 1080p image. Een factuur in pdf de helft tot 1/5e daarvan. Een Google Docs of Spread sheet is vaak slechts enkele KB (vroeger rekende ze niet mee qua opslag, tegenwoordig wel).

Google heeft altijd van die heerlijke stealth changes!
As of June 1, 2021, newly created Google Docs, Sheets, Slides, Drawings, Forms, or Jamboard files count toward storage. Files that already exist don't count toward storage unless they're modified on or after June 1, 2021.
Maar vergeet ook niet dat OneDrive/Sharepoint ook gewoon verschillende limieten hebben. SharePoint heeft bv. een harde limiet van 30 miljoen files EN folders per library (je kan meerdere libraries hebben), maar ver voor die tijd zal je tegen performance issues aanlopen. Ik heb niets specifieks gevonden voor OneDrive, maar qua syncen liggen die limieten veel lager voordat je tegen issues aanloopt.
Ik heb niets specifieks gevonden voor OneDrive, maar qua syncen liggen die limieten veel lager voordat je tegen issues aanloopt.
OneDrive kent geen limiet qua aantal files die je op OneDrive mag zetten:
Hello, there is no hard limit on the number of files you can upload on OneDrive, which means you can save as many files as you want within the OneDrive capacity limit.
Zie https://answers.microsoft...65-4da3-817b-fc2e24cb4c7f

De enige echte limiet is (uiteraard) de totale groote van je OneDrive, die moet wel blijven binnen wat je afneemt.

Vraag is echter of je dit wel wil. Zowel bij OneDrive als Google Drive (of andere soortgelijke diensten, for that matter) zul je idd vér voor die limiet al tegen performance problemen bij het synchroniseren aanlopen.

De 5 miljoen die Google nu als limiet oplegt zul je als consument inderdaad niet snel bereiken, maar als zakelijke klant (bedrijf etc) loop je er wellicht eerder tegenaan.
De enige echte limiet is (uiteraard) de totale groote van je OneDrive, die moet wel blijven binnen wat je afneemt.
Er is nog een limiet:
Depending on the web browser you use, you can upload files up to 250GB in size.
(...)
Files you add to OneDrive this way (synchronization) can be up to 250GB in size.
In de uitzonderlijke situaties dat die limiet relevant is, is er uiteraard ook omheen te werken. Desalniettemin is het een limiet die de dienst minder flexibel maakt.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:06]

For transferring large files or lots of files, we recommend adding the files to the OneDrive desktop app rather than using the Upload button on the website.
Vraag is of je een bestand van die omvang wel via een webbrowser moet willen uploaden, als de client zelf veel efficienter is met uploaden. En een tweede vraag is hoe vaak je een bestand van 250 GB of groter zult hebben dat geupload moet worden. Dat zal niet dagelijks gebeuren voor het overgrote deel van de mensen.
Files you add to OneDrive this way (synchronization) can be up to 250GB in size.
Bedenk wel dat die tekst alleen lijkt te gelden voor de Windows 8.1 (en WinRT) versie, in de sectie van Windows 10 op je eigen website wordt geen limiet gegeven bij Windows 10 (en ik neem aan dat dit ook voor Windows 11 geldt).

En het aandeel van Windows 10/11-users ligt iets hoger dan die van 8.1-users vermoed ik zo.

Voor Windows 7, Vista en MacOS ligt die limiet dan weer een stukje lager, namelijk op 20 GB per file.

[Reactie gewijzigd door wildhagen op 22 juli 2024 21:06]

[...]
Vraag is of je een bestand van die omvang wel via een webbrowser moet willen uploaden, als de client zelf veel efficienter is met uploaden.
Vraag is of je een bestand van die omvang wel via de client kán uploaden. Succes met het uploaden vanaf Linux, Ubuntu Touch (zonder de Android-app te installeren), AmigaOS, SailfishOS, etc. En ja, ik weet het: kleiner marktaandeel. Maar als je tóch een van die systemen gebruikt en je bestand is groter dan 250 GB, dan zit je dus met de gebakken peren want geen client beschikbaar.
En ja, ik weet het: kleiner marktaandeel. Maar als je tóch een van die systemen gebruikt en je bestand is groter dan 250 GB, dan zit je dus met de gebakken peren want geen client beschikbaar.
Onwaar.

Verder ondersteunt OneDrive een maximaal bestandsgrootte van 250 GB, ook met sync clients.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:06]

…en zo nog een aantal. Ik weet het, maar het ging hierboven om de officiële client, en dat is ook de enige die geen limiet van 250 GB heeft.
Ook de officiële client heeft dezelfde limiet. Zie mijn andere post met officiële Microsoft-link hierover.
Ik heb wel eens wat geüpload wat groter was dan 250 GB met de Windows-client, dus wat je zegt klopt niet.
Bedenk wel dat die tekst alleen lijkt te gelden voor de Windows 8.1 (en WinRT) versie, in de sectie van Windows 10 op je eigen website wordt geen limiet gegeven bij Windows 10 (en ik neem aan dat dit ook voor Windows 11 geldt).
Hier een andere bron, die geen onderscheid maakt tussen besturingssystemen.
En een tweede vraag is hoe vaak je een bestand van 250 GB of groter zult hebben dat geupload moet worden. Dat zal niet dagelijks gebeuren voor het overgrote deel van de mensen.
Voor grootschalige versleutelde archivering, waarom niet? Daar is niets mis mee, want 'da cloud' is zeer betrouwbaar en wordt geprezen om diens flexibiliteit. Toch?

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:06]

Weten we zeker dat OneDrive geen limiet kent? Volgens gebruiker Aura Pistil op 9to5google (https://9to5google.com/20...ended-comments=1#comments) is die er wel, maar niet door Microsoft erkend.
Er is iemand die reageert in een post, dat lijkt me geen betrouwbare bron. linkje voegd dus in het geheel niets toe als bewijs.
Heb je helemaal gelijk in, ik probeerde uit te zoeken wat waarheid is in dit verhaal. De quote van de originele comment lijkt een support antwoord te zijn, en die 9to5Google'er claimt dat Microsoft support dit limiet niet erkend. Iets wat ik geneigd ben te geloven, want het gebeurt best wel vaak dat support niet altijd de juiste antwoorden geeft, dus ik probeerde eigenlijk te ontdekken of iemand in persoonlijke ervaring ooit tegen een OneDrive limiet is aangelopen
Het probleem is helemaal niet die limieten. Als Google limieten wil, moeten ze dat zelf weten en dan kunnen mensen zelf bepalen of ze naar een concurrent gaan.

Het probleem is het overvallen van mensen en bedrijven met onaangekondigde policy changes. Dat is van den zotte. Dit is geen nieuw terrein voor hun ofzo, kondig het maanden vantevoren aan, pas weken vantevoren een popup toe en dan pas limiet aan zetten. Doen ze all the time in Google Workspace of hoe dat tegenwoordig ook maar heet.
Een eenzijdige wijziging van contractvoorwaarden opleggen is onwettig.
Volgens mij reageerde HKLM_ op iemand die schreef over consumenten die 5.000.000 bestanden op hun drive zouden hebben. jouw opmerkingen hebben verder geen enkele toegevoegde waarde. Wel wordt je uitleg gewaardeerd over de rest van de uitleg.

Blijft dus nog de vraag staan van HKLM_: welke consument heeft er 5.000.000 of meer bestanden staan op zijn/haar drive?
Vroeger was Skydrive/Onedrive onbeperkt.
“Since starting to roll out unlimited cloud storage to Office 365 consumer subscribers, a small number of users backed up numerous PCs and stored entire movie collections and DVR recordings.

In some instances, this exceeded 75 TB per user or 14,000 times the average. Instead of focusing on extreme backup scenarios, we want to remain focused on delivering high-value productivity and collaboration experiences that benefit the majority of OneDrive users.”
https://www.subscriptioni...ive-storage-subscriptions
Let wel dat dat dus om de totale omvang van de OneDrive gaat. Dat je geen OneDrive van 75+ TB mag hebben lijkt me persoonlijk vrij redelijk, dat zijn ook absurde getallen natuurlijk. Daar zijn dit soort diensten ook niet voor bedoeld.

In dit artikel gaat het echter om limieten op het aantal bestanden op OneDrive, en dat is nog altijd umlimited:
Hello, there is no hard limit on the number of files you can upload on OneDrive, which means you can save as many files as you want within the OneDrive capacity limit.
Van https://answers.microsoft...65-4da3-817b-fc2e24cb4c7f

Dat is een nogal essentieel verschil zeg maar :)
Er zijn een aantal dingen die we niet moeten vergeten. Google drive is niet bedoeld als permanente backup, en er is geen backup systeem dat al je data altijd direct beschikbaar houd. Dus als jouw bedrijf in de problemen komt omdat je een dienst die niet bedoeld is voor een bepaald gebruik misbruikt dan is dat toch echt jouw problem. Daar naast heeft Google al een tijd gewaarschuwd dat er beperkingen zijn in wat Drive kan doen.
Als je kijkt naar Google cloud bied een backup dienst aan voor het opslaan van bestanden een dienst die best wel goed integreert met Google Drive. Als je als bedrijf dus behoefte hebt aan de opslag van miljoenen bestanden dan kun je daar gewoon gebruik van maken voor je backups van de bestanden die je echt niet iedere dag meteen binnen een paar seconde moet kunnen inzien.
Als je als bedrijf echt behoefte hebt aan miljoenen bestanden die vrijwel onmiddellijk beschikbaar moeten zijn dan bied Google daar ook een dienst voor aan in haar cloud. Ook in dit geval is er echt geen probleem als je als bedrijf zo'n service nodig hebt.

Alles dat Google gedaan heeft is simpel weg gebruik van de dienst als backup voor bedrijfsdoeleinden iets moeilijker maken. En als je als dieren kliniek (wat toch echt een bedrijf is) na maanden van waarschuwingen nog niets mee gedaan hebt dan is het simpel weg je eigen schuld als je nu tegen problemen aan loopt.

Nu moet ik wel zeggen dat Google misschien er goed aan had gedaan om de gebruikers even een mailtje te sturen en uitleggen waarom de beperking nodig is, ook zou een uitleg hoe je bestanden van Drive naar backup/cloud storage kan verhuizen misschien wel handig geweest.
Maar goed het toont heel erg duidelijk aan dat Google een bedrijf is dat heel erg aan het wij zij denken doet en waar de verschillende diensten elkaar hevig beconcurreren zelfs als dat ten nadelen van de klant is. Ook laat het zien dat men weinig begrijpt van gebruikers met minder technische kennis en niet beseft dat als ze zo'n gebruiker bij de hand neemt en ze laat zien hoe ze jouw klant kunnen blijven ze meestal dankbaar zijn en met liefde extra geld aan je willen overmaken omdat je het beste met ze voor hebt.
Als iemand het nog vreemd vind dat Google zo veel moeite heeft te groeien in de enterprise markt dan is dit een perfecte case studie om dit Google probleem te doorgronden. Het is niet dat de enterprise Google niet vertrouwd het is dat Google de enterprise niet juist weet te behandelen met als resultaat dat de enterprise geen trek heeft in alles zelf uit moeten vinden en op deze manier verrast te worden door Google. Google's ales wat niet een extreem success is binnen een paar jaar of minder weer stoppen is een andere goede reden. Vergelijk Google's gedrag als het gaat om nieuwe diensten eens met dat van bijvoorbeeld AWS (SimpleDB is een geweldig voorbeeld van hoe het moet als je met enterprise klanten werkt) of Microsoft met hun oneindige ondersteuning van Dos en vroege Windows binaries dat is wat de Enterprise nodig heeft helaas. Een bedrijf dat enterprise klanten die vaak helemaal geen IT kennis hebben het gevoel geeft dat ze ieder moment diensten waar ze op vertrouwen kwijt kunnen raken en ze het gevoel geeft dat ze veel te weinig kennis hebben van IT om klant te zijn van het grote Google met hun oneindige kennis zal waarschijnlijk geen Google klant willen zijn.

Ik snap helemaal waarom Google hun Drive dienst beperkt tot een paar miljoen bestanden al denk ik wel dat zeker bij een onbeperkte grote van de opslag hier toch wat verandering in zou moeten zijn zodat je bijvoorbeeld als je "maar" 1TB opslag hebt je maximale aantal bestanden 5M is maar als je naar de 10TB gaat je toch echt 50M bestanden mag opslaan. En bij onbeperkt misschien een limiet van 1 miljard bestanden aan houden bijvoorbeeld. Of een dienst zo als Drive niet laten groeien tot dat formaat en mensen die een bepaald aantal bestanden hebben aanbieden om weinig gebruikte bestanden naar backup te verhuizen via een automagisch process waarbij ze nog steeds de bestanden terug kunnen halen via Drive alleen duurt het tot 24h voor ze een download link in hun mail krijgen bijvoorbeeld.
Er zijn genoeg oplossingen te vinden om gebruikers een veel betere ervaring te bieden dan Google nu doet maar helaas het is Google en gebruikers zijn niets anders dan een manier om reclame te verkopen en voor de rest moeten ze niet zeuren maar netjes klikken op dis links.
Dat jij geen usecase kan bedenken wil niet zeggen dat anderen hiervoor geen usecase hebben. Het gaat inderdaad om kleine bestanden, maar waarom zou je geen 5 miljoen bestanden mogen opslaan als dit binnen je storage limiet valt? Dat kan voor sommige mensen/bedrijven best handig zijn.
Er zal iemand wel een systeem gemaakt hebben om bestanden van 1 of 0 bytes op te slaan en dan de informtie te coderen in de bestandsnaam. Op die manier kan je een hoop meer data opslaan dan je gratis limiet toelaat :)
Dan moeten ze de functie getQuotaUsagePerUser() aanpassen zodat deze wel de goede info teruggeeft.
Je ziet in de zakelijke markt dat mensen OneDrive en Drive gebruiken als volledige dump en backup schijf. Volledige Windows installaties en programma directory’s, duizenden data folders van programma’s, volledige kopieën van netwerkshares, je komt van alles tegen. Dit is enorm slecht voor de performance en ook niet waar zo’n clouddienst voor bedoelt is.

Blij dat ze dit doen. Microsoft heeft ook al jaren zo’n beleid.
Dit is enorm slecht voor de performance en ook niet waar zo’n clouddienst voor bedoeltd is.

Blij dat ze dit doen. Microsoft heeft ook al jaren zo’n beleid.
Dat veel kleine bestanden slecht zijn voor de performance is een feit. Ook verlies je, afhankelijk van (d configuratie van) de onderliggende storage, nog eens wat oplagruimte per bestand omdat het niet mooi 'past'.

Maar ik kan het niet eens zijn met je voor wat betreft de 'bedoeling van zo'n clouddienst'. Zowel Google als Microsoft zetten deze weg als storage voor alle gebruik.

Afaik heeft OndeDrive geen limiet in aantal bestanden, wel in het aantal dat je met één apparaat kan syncen.
Dat veel kleine bestanden slecht zijn voor de performance is een feit. Ook verlies je, afhankelijk van (d configuratie van) de onderliggende storage, nog eens wat oplagruimte per bestand omdat het niet mooi 'past'.
En naast dat heb je in je bestandssysteem wellicht ook een beetje overhead omdat voor ieder individueel bestand er metadata aanwezig moet zijn over bestandsnaam, fysieke locatie, laatste wijzigingsdatum, etc.

Het zou wel netjes zijn als een Google het mogelijk maakt voor accounts die richting de limiet gaan om de bestanden bijvoorbeeld per map te zippen vanuit Drive zelf.
Wat jij je niet kan voorstellen, vinden anderen juist normaal.
Consumenten zullen de limiet niet zo snel bereiken, maar de limiet geldt ook voor (klein) zakelijke klanten.
Stel dat je een bedrijfje hebt en en offertes en facturen moet maken. Als het totale bedrag dan ook nog eens in meerdere delen betaald mag worden, loopt het aantal bestanden best snel op. Een offerte of factuur is meestal maar een klein bestandje en daarvan passen er gemakkelijk 5 miljoen op 2 TB. Met een verplichte bewaartermijn van 10 jaar is het niet ondenkbaar dat je de limiet een keer gaat halen.
De oplossing is natuurlijk niet moeilijk. Na 5 jaar kan je de bestanden (per jaar) gewoon samenvoegen tot een zip-bestand.
Ff serieus dit zou je zelfs als klein bedrijf niet op een google drive moeten opslaan maar in een systeem wat er voor bedoelt is…
Google drive is niet iets waar je gelijk aan denkt. Veel kleine bedrijfjes gebruiken OneDrive. Als je het daarmee vergelijkt is Google Drive niet eens zo'n slecht alternatief. Het is in elk geval beter dan op een lokale harde schijf, waarvan geen backup wordt gemaakt, of waarvan de backup in hetzelfde pand wordt bewaard. Je bestanden zijn ook overal toegankelijk.
Google heeft in elk geval de beveiliging uitstekend op orde. Kans om gehackt te worden is daardoor klein. De kans dat je bestanden verdwijnen door een defecte schijf of gestolen computer is miniem. Als je het van die kant bekijkt is Google Drive niet eens zo'n slecht idee.
Inderdaad, ik heb over 24TB aan data van de afgelopen 22 jaar en i kom net aan de 3 miljoen files waarvan best veel dubbele files.
Ik heb een map, waar ik graag een backup voor maak (ook doe), met code. Allerlei projecten, allerlei meuk. Ik heb wat oudere projecten om veel files te verkomen, gezipt ipv los daar staan.

De stats van c:\code, bevat 1.351.670 files, en is maar 36.8 gb (size on disk 38.5 gb). Ik denk dat er nog wel wat honderd duizend files bij komen als ik als ik die zipjes uit zou pakken.

Nu kan je zeggen ruim het meer op, maar dat is mijn keuze. Het is niet heel gek voor bedrijven die software maken om makkelijk over die 5 mil te gaan. Ik zou het persoonlijk niet backuppen naar iets als google drive, maar he.
Heb je een voorbeeld van een reële situatie waarin een normale consument over deze limiet heen gaat ?
Met een backup applicatie zoals Arq zit je er volgens mij vrij snel aan.
Ik mag hopen dat ze er slimmer mee omgaan dan alle data inclusief duplicate files gewoon te dumpen en alleen files die zijn veranderd bij houden? Ik draai zelf ieder uur een backup, dat is per uur een enkele file en eens per week worden al die files gecombineerd
Het instellen van een limiet lijkt mij wel degelijk een fatsoenlijk systeem want je zal altijd tegen een limiet aanlopen als platform. Er zijn altijd klanten/gebruikers die een platform gebruiken op een manier waarvoor het niet bedoeld is en limieten helpen daarbij om deze gebruikers in lijn te houden.
natuurlijk is het om misbruik te voorkomen. Wedden dat er ergens een blog is met "ik heb 10TB aan data opgeslagen in de bestandsnamen van lege google drive bestanden"?
lol
google: "we controleren onze content" tweakers "PRIVACY@#$%&!) "
Google : We controleren NIET onze content " Tweakers : "Fatsoenlijkheid @#$%&!) "
Deze limiet is het fatsoenlijke systeem om misbruik te voorkomen.
Wat zou de use case zijn om meer dan 5 miljoen bestanden op te slaan in één google drive account?
Misschien als logging van een bepaald proces dat allemaal aparte tekstbestandje aanmaakt oid. En dat dan allemaal automatisch naar Google Drive backupped.
Eeh ik mag hopen dat geen software op die manier logged dat zou vreselijk zijn, gewoon iedere dag een nieuwe log waar je aan append is veel handiger toch?
sommige misbruiken de bestandsnamen als data en stellen die daarna terug samen om rond limieten te geraken
Ah, zo. Slim bedacht.
Als dit ook op GSuite wordt toegepast; er zijn nog steeds heel veel mensen met unlimited opslag, dan kun je toch wel eens over de 5 miljoen gaan in gewone bestanden.

Daarnaast zijn er nog altijd veel systemen die heel veel kleine bestandjes hebben (waaronder bijv. logbestanden), dan raak je de 5 miljoen ook snel.
Eén node_modules folder :9
Ja daar dacht ik ook aan. Als je die niet exclude gaat het echt hard
ik had vroeger een sync staan op het mapje van m'n screencaps, handig als je op het ene toestel werkt en op het andere procedures schrijft zonder dat ze met elkaar in contact komen
Paar software projecten en je zit al in de honderd duizenden soms.
5 miljoen is ook wel heel erg veel files in de cloud. Ik denk dat ze dit doen om misbruik waar mensen filenames gebruiken als opslag tegen te gaan.

Ze hadden echter de gebruikers die hier last van hebben/krijgen wel even van tevoren mogen inlichten.
De notificatie is behoorlijk duidelijk en ik vermoed als je meer dan 5 miljoen bestanden hebt, dat deze nog blijven bestaan maar dat je enkel geen nieuwe bestanden kan aanmaken. In mijn ogen een nette manier en een notificatie vooraf zou daarbij niks veranderd hebben.
Ik denk dat ze dit doen om misbruik waar mensen filenames gebruiken als opslag tegen te gaan.
Wellicht eerst even checken? Een Google Doc zonder inhoud neemt ook gewoon ruimte in beslag. Voor januari 2021 namen Google Docs geheel geen ruimte in beslag, ongeacht hoe groot ze waren...
Je kan meer dan alleen Google Docs opslaan in Google Drive.
Natuurlijk, maar die nemen ook gewoon ruimte in beslag...
1 juni* 2021

Wat een stomme wijziging trouwens, had dit helemaal niet meegekregen.
Linksquest Moderator Spielerij 2 april 2023 11:54
Hmm, nu weet ik niet hoe snel je aan 5 miljoen komt, maar dat zal hopelijk wel mee vallen.
Dat is dus gemiddeld 5 miljoen 400 Kilobyte bestanden voor een 2 TB opslag maximaal. Dat is inderdaad wel extreem, dus ben wel nieuwsgierig naar de usecase van de gebruikers die daar tegenaan lopen. Dat gezegd hebbende vind ik wel dat Google de limiet van tevoren had mogen aangeven in de voorwaarden. Als gebruikers hier tegenaan lopen dan wordt het tijd om wat oudere bestanden te archiveren in een zip-bestand.
Vaak zijn het bedrijven die back-ups nemen van systemen of bedrijven met dev code (in dat geval heb je heeel veel kleine bestandjes en dat is normaal voor devs)
Kan je het huidige aantal ook ergens zien?
Je zou deze manier eens kunnen proberen: https://www.cloudduplicat...ers-and-the-entire-drive/
En dan de tweede optie op de betreffende pagina.
Dit zal vast zijn om bestandsnamen als opslag te gebruiken tegen te gaan, maar wat ik niet snap: waarom niet in plaats daarvan de bestandsnamen laten meetellen in de bestandsgrootte? Ik snap dat een bestandsnaam normaliter niet boven de paar bytes uit komt, maar het lijkt me geen rocket science om een check in te bouwen die de lengte/grootte van een bestandsnaam limiteert tot een enigszins ruim plafond waar een eerlijke gebruiker geen last van heeft.
Ben benieuwd of Shared Drives hierin ook meetellen, momenteel tellen die niet mee voor opslag en elke shared drive heeft een limiet van 400k files. Dus vermoed dat je er nogsteeds omheen kan met shared drives.
Vanuit technisch perspectief zeer begrijpelijk. Als je kleine bestandjes gewoon in een zip opslaat offload je de hele infrastructuur van een hoop overhead. Tegenwoordig is zip goed genoeg geïntegreerd in clients dat het zo ook redelijk bruikbaar is.
Maar als je iets stu wil zoeken in bestanden zitten van zips dan begint de miserie.
Geen enkel indexer gaat content van je zip files indexeren
Er zijn genoeg mensen die hun hele filmcollectie van tientallen TB's versleuteld op google hebben staan, gekoppeld aan een plex servertje in de cloud en daarmee hun hele kennissen kring voorzien.
Zelfs dat is niet snel 5 miljoen.
Lijkt mij sterk dat je dan boven de 5 miljoen komt
Kijk naar je c drive

Summit mensen gebruiken g drive ook voor back-ups

[Reactie gewijzigd door sebastienbo op 22 juli 2024 21:06]

Ja, daar heb ik meerdere honderden miljoenen bestanden op, maar dat is gelukkig dan ook niet mijn google drive, Google Drive gebruik je meestal niet voor fotos enzo, niet allemaal losse program files
Waarom zou je een backup als losse bestanden uploaden en niet inpakken in een zip bestandje?

en de C schijf staat ook je besturingssysteem op, dit zet je niet op google drive mag ik hopen.
Nee vaak gaat het om specifieke folders die gesyncd worden, niet de sys
Maar ook die kunnen zeer groot zijn als je Dev bent
Lijkt me sterk dat er veel mensen zijn die 5 miljoen films legaal hebben verkregen en hebben opgeslagen op Google Drive.

Op dit item kan niet meer gereageerd worden.