Amazon opent fysieke locaties waar AWS-klanten data kunnen uploaden

Amazon introduceert AWS Data Transfer Terminals. Het betreft fysieke locaties waar klanten heen kunnen om datasets via een internetverbinding te uploaden in de AWS-cloudomgeving. De eerste terminals bevinden zich in Los Angeles en New York. Er komen later meer locaties wereldwijd bij.

Amazon schrijft in een persbericht dat AWS-klanten een tijdslot in de terminal zullen kunnen reserveren. Eenmaal daar aangekomen, kunnen gegevens snel en veilig worden geüpload naar de desbetreffende Amazon-cloudomgeving van klanten, zoals Amazon Simple Storage Service en Amazon Elastic File System. Het bedrijf deelt een stappenplan voor klanten waaruit blijkt dat de fysieke locaties bemand zullen zijn met personeel. Klanten moeten zich verplicht aanmelden en worden daarna naar de betreffende terminal begeleid voordat het uploaden kan beginnen. Volgens het bedrijf bestaat de kans dat er in de gebouwen geen logo’s of andere verwijzingen naar AWS te zien zullen zijn. Het bedrijf heeft hiervoor gekozen uit veiligheidsoverwegingen. Amazon rekent een uurprijs bij het gebruik van de terminals en geen prijs per gigabyte.

Foto's van een AWS Data Transfer Terminal. Bron: Amazon
Foto's van een AWS Data Transfer Terminal. Bron: Amazon

Door Jay Stout

Redacteur

02-12-2024 • 14:30

31

Submitter: Anonymoussaurus

Reacties (31)

31
31
17
4
0
10
Wijzig sortering

Sorteer op:

Weergave:

What is the connection type?

Each Data Transfer Terminal facility will have at least two (2) 100G optical fiber cables that are connected to the AWS network.

What are the key requirements for preparing my device to use the Data Transfer Terminal facility?

To prepare for using the Data Transfer Terminal facility and connecting to the network, you need to ensure your uploading device is prepared to connect to the network. You should have the following for an optimal data upload experience:
• A transceiver type 100G LR4 QSFP
• An active IP auto configuration (DHCP)
• Up-to-date software/transceiver drivers
Bron
100G is best een redelijke verbinding :)
Per port charge for data transfer [Per uur]
US to US @ $300
US to EU @ $500
Bron

[Reactie gewijzigd door I_IBlackI_I op 2 december 2024 14:36]

Voor de visualisatie: Een 100 Gbps (gigabits per seconde) uplink is gelijk aan 12500 MB/s (megabyte/seconde) of 45 TB (terabyte) aan data per uur.* Dus je zal een flinke bak parallele HDD's of een snelle en grote SSD moeten meenemen om hier naar vol vermogen gebruik van te maken.

*Daar zit natuurlijk overhead bij vanuit TCP, applicatielayer en andere overhead bij in, dus je zal niet exact 45 TB aan opslag per uur kunnen up- of downloaden, dat zal wat minder zijn.

[Reactie gewijzigd door Helium-3 op 2 december 2024 18:38]

Dan is het verstandig om een zo snel mogelijke datasource mee te nemen. Niet een USB 2.0 stick of zo.
Ja dan kan je net zo goed vanuit huis uploaden..

Maar zoals ik het lees kan er helemaal geen USB in maar krijg je alleen toegang tot die verbinding. Dus je moet je eigen device meenemen
Dus jij mag 100en terabytes aan bedrijfsdata mee naar huis nemen?
Hoezo naar huis? Medewerkers van Brink's waardetransport nemen het geld toch ook niet mee naar huis?
Nee, er zijn serieus bedrijven die back ups voor je vervoeren. En dat gaat net zoals bij een waardetransport. Profesioneel dus.
Zelfs al zou je interface USB4 wezen... dan nog doet die geen DHCP ;)
LR4 QSFP transceiver is je interface type. Welke data source je in je device gebruikt zal dan weer de upload kunnen beperken.
Je zal dan al snel naar minimaal dual GEN 5 nvme moeten denken die beide continu 10GB/s kunnen volhouden.
Ik neem aan dat je voor AWS, net als voor Azure, ook gewoon HDs kunt versturen. Daar zijn aparte behuizingen voor, inclusief fysieke beveiliging en courier-transport. Dit is soort van een uitbreiding daarop.

Kan me niet zo voorstellen dat bedrijven hier heel veel gebruik van zouden maken. Als je 100en TBs aan data hebt, heb je dat vaak wel beter geregeld dan met een NAS onder de arm naar een fysieke stekker te moeten.
We hadden een keer een truck van AWS die onze data ophaalde omdat het via een netwerkverbinding onmogelijk zou zijn. Het ging om honderden/duizenden petabytes aan data van nieuw gemaakte eiwitten. Data moet ook door de toezichthouder minimaal 30 jaar bewaard worden, dus we gingen ook door vele tapes heen. Uiteindelijk is alles naar Azure en AWS verhuisd en voor de data hebben we dedicated glasvezellijnen laten leggen naar de datacenters van Amazon en Microsoft (helaas kon het geen Nederlandse partij zijn, omdat er geen enkele partij was die aan onze vraag naar opslagcapaciteit kon voldoen).
De keuze voor locaties zal vast samenhangen met de media industrie in Los Angeles en New York. Er is vaak zeer veel en groot materiaal (vele 10-tallen TBs) die worden geschoten en dit kan best handig zijn. Ook is dat vaak project werk, en zullen de locaties geen vaste 100Gbit tot hun beschikking hebben.
Misschien als one-time off als onderdeel van enterprise ERP cloud migraties etc.

Je hebt misschien niet de volledige bandbreedte nodig maar het zal het migreren van dit sport databases behoorlijk versnellen icm het eventueel verminderen van data corruptie via een reguliere transfer/upload.

Ik denk simpelweg hardop, maar ben een benieuwd naar de use-cases van dit.
Hoe noemen ze dit dan? Snowfort? :9
Over Snow gesproken: je kan dus wel je AWS Snowball meenemen. :p
After the data is uploaded to AWS, you can use the extensive suite of AWS services to generate value from your data and accelerate innovation. You can also bring your AWS Snowball devices to the location for upload and retain the device for continued use and not rely on traditional shipping methods.
De Snowmobile truck is immers met pensioen gestuurd.
Dat is de aankondiging, niet de bron dat ze ermee stoppen. Dit is een bron: https://www.cnbc.com/2024...for-cloud-migrations.html
Correct. Ik plaatste de link voor hen die niet bekend waren met de truck.
> Klanten moeten zich verplicht aanmelden en worden daarna naar de betreffende terminal begeleid voordat het uploaden kan beginnen.

Nog wiedes lijkt mij als je data gaat uploaden dat je geauthoriseerd bent....
Ben wel benieuwd naar de hele procedure en hoe 'veilig' dit is opgezet.
Wellicht dat in het aanmeld proces ook een soort van terminal configuratie wordt toegepast.
Klant A komt <datum/tijd> terminal X is voorbereid voor netwerk klant A.
Nog steeds als je op je eigen servers moeten inloggen maar wellicht is het basis deel zo wel alvast voorbereid.
Niet alleen vanuit AWS, hier zal ook wel een stevig process aanzitten mbt beveiliging vanuit de gebruikende bedrijven.
Een soort menselijke USB-hub? :P
"Never underestimate the bandwidth of a station wagon full of tapes hurtling down the highway."

https://www.reddit.com/r/...e_bandwidth_of_a_station/
Amazon: Please identify yourself.
i am Johnny Mnemonic.

Johnny Mnemonic - Official® Trailer [HD]
YouTube: Johnny Mnemonic - Official® Trailer [HD]

(ouwe Hollywood film 1995 _/-\o_ )
Heeft iemand wat achtergrond over waar dit voor gebruikt wordt? Is dit voor als je bedrijf 200TB aan bedrijfsdata ineens in de cloud wilt gaan storen? Of als je gaat verhuizen met je bedrijf naar een ander contintent en niet in het vliegtuig wilt stappen met je server ingecheckt als ruimbagage? :+
Ik begrijp het ook niet helemaal. 2x 100gbit link klinkt niet zo heel speciaal. Dat moet in ieder datacenter toch wel verkrijgbaar zijn als een (tijdelijke) oplossing?

Klinkt enkel interessant voor bedrijven die zelf een server hebben draaien op het kantoor, waar geen snelle verbinding aanwezig is, die dan willen migreren naar de cloud.

Als je een vrachtwagen vol HDD's hebt, dan zal een adhoc oplossing waarschijnlijk beter zijn (zoals die snowmobile truck waar anderen het over hebben).
Ik heb begin negentiger jaren gewerkt bij een grote softwareleverancier waar de software geporteerd werd naar de verschillende Unix-platforms die er toen waren (SiemensNixdorf, Ollivetie, Bull, NCR, etc.). Ook in Rusland was er een op de M68020-gebaseerd Unix-platform. De engineer kwam met het vliegtuig uit Moskau met in de ruimbagage een server in een fikse kartonnen doos.... We hebben de beste man van de hongerdood moeten redden omdat hij de dagelijkse hoeveelheid westerse valuta die hij kreeg niet voor voedsel wilde uitgeven....
Andere cloud partijen hebben vergelijkbare functionaliteit, hier de usecases voor bijvoorbeeld Azure:
  • One time migration - when large amount of on-premises data is moved to Azure. For example, moving data from offline tapes to archival data in Azure cool storage.
  • Incremental transfer - when an initial bulk transfer is done using Data Box Disk (seed) followed by incremental transfers over the network. For example, Commvault and Data Box Disk are used to move backup copies to Azure. This migration is followed by copying incremental data using network to Azure Storage.
  • Periodic uploads - when large amount of data is generated periodically and needs to be moved to Azure. One possible example might include the transfer of video content is generated on oil rigs and windmill farms for energy exploration. Additionally, periodic uploads can be useful for advanced driver assist system (ADAS) data collection campaigns, where data is collected from test vehicles.
bron

Vooral dat laatste stukje over periodieke upload als je vanuit ver gelegen gebieden, denk bijvoorbeeld aan Antartica of andere locaties waar een zeer brede netwerkverbinding niet beschikbaar is.
Maar het vreemde is, Amazon was daar zelf zo'n beetje de eerste mee gok ik. Amazon had eerder Snowmobile, een complete vrachtwagen die de data bij je kwam ophalen en vervolgens terug ging naar Amazon waarna het in de cloud geupload werd. Die hebben ze nu niet meer blijkbaar maar nog wel Snowball wat een soort data container is die je opgestuurd krijgt, je data op kan zetten en dan terug stuurt.

Vraag me dan af wat het voordeel is van fysieke locaties, zeker als ze vanwege security redenen er dan geen logo op plakken.

[Reactie gewijzigd door Ventieldopje op 2 december 2024 20:17]

Is het al bijna 1 april?

Op dit item kan niet meer gereageerd worden.