AMSTERDAM - De Amerikaanse zoekmachine Google geeft toe dat er per abuis miljoenen veilige https-pagina's zijn geïndexeerd. Zo meldt de Nederlandse site Voelspriet.nl.

Door een fout in de software van Google werden de robots.txt-bestanden genegeerd. Die bestanden zorgen er normaal voor dat zoekmachines bepaalde informatie niet opnemen. Bij het indexeren van bijna vier miljoen https-pagina's werd het bestand robots.txt door Google genegeerd en kwam de privacygevoelige informatie alsnog in de index en daarmee in het antwoordenlijstje van zoekende internetter te staan.

Slordige gebruikers van I-Pay hebben hun gebruikersnaam en wachtwoord in sommige https-pagina's gezet die door Google zijn geïndexeerd. Met speciale zoektrucs was het daardoor mogelijk rechtstreeks toegang te krijgen tot betaalde informatie en software, vooral goedkope shareware.

Herkennen

Google-woordvoerder Nathan Tyler erkende de indexeringsfouten. "We hebben een bug in onze nieuwe technologie ontdekt", zegt hij op Voelspriet.nl. "Het systeem herkende de robots.txt-bestanden niet op https-servers. We hebben de bug opgespoord en alle https-pagina's verwijderd uit de Google-index en de cache."

De gevoelige informatie is nu verwijderd, maar het duurt even voordat het nieuwe systeem op orde is. Google betreurt het incident. "We waren een nieuwe technologie aan het testen, en dan kan er wel eens wat mis gaan", zegt Tyler.