Cutts scrie ca in timp ce Google a facut o treaba buna in ceea ce priveste „webspam-ul web” (link-uri irelevante n.r.), alte tipuri de continut junk au reusit sa se mai strecoare. Pentru a rezolva acesta problema, Google a modificat algoritmi de cautare pentru a scana continutul de tip spam, pe pagini izolate, sau site-uri care copiaza continut pentru a-si creste vizibilitatea.
De asemenea, compania si-a imbunatatit abilitatea de a detecta site-uri hacuite, care a fost o sursa importanta de spam in 2010.
Mai mult decat atat, compania evalueaza posibilitatea de duce spamul la un nivel cat mai mic, iar una dintre masuri va afecta site-urile care copiaza continutul altora si site-uri cu un nivel scazut al continutului original.