Google heeft de parser van zijn robots.txt-protocol en de bijbehorende libraries open source beschikbaar gemaakt. Het bedrijf hoopt op die manier dat websitebouwers en bedrijven zorgen dat het Robots Exclusion Protocol een officiële webstandaard wordt.
Alle bestanden rondom het REP zijn op GitHub gezet. Het gaat om de library die het Robots Exclusion Protocol in Googlebot aanstuurt, de crawler die websites indexeert voor de zoekmachine. Google vraagt ontwikkelaars in de komende tijd om hun input over de plannen.
Met het open source maken van de libraries hoopt Google dat het REP tot officiële internetstandaard kan worden verklaard. Tot nu toe was het dat niet, waardoor ontwikkelaars het protocol altijd iets anders konden interpreteren. Daardoor kunnen er problemen ontstaan wanneer code wordt geschreven in bepaalde verwerkers of besturingssystemen, die dan net iets anders werken. Om zulke dingen te voorkomen heeft Google bijvoorbeeld verschillende manieren opgenomen in de code waarop het disallow-commando aan robots.txt kan worden doorgegeven.
Om ervoor te zorgen dat REP een officiële standaard wordt, heeft Google de documentatie ook aan de Internet Engineering Task Force gegeven, de organisatie die gaat over standaardisatie van internetprotocollen. In de documentatie staan bijvoorbeeld eisen over de maximale cache-tijd, minimale eisen voor servers en de maximale grootte van een REP-bestand. In de standaard wordt niet alleen gesproken over robots.txt, maar ook over overdrachtsprotocollen zoals FTP en CoAP.