Proteggersi dal Malvertising

Come proteggersi dal malvertisng la pubblicità pericolosa.

Per imparare a difendersi da alcuni aspetti del malvertising la pubblicità pericolosa qui di seguito saranno consigliati alcune interessanti soluzioni per migliorare la sicurezza del sito web professionale tramite una migliore configurazione del file .htaccess.

Il Romanzo
La Soluzione

IL ROMANZO

Capitolo V: La Saggia Nonnina 
Oggi la mattina era cominciata subito, i pensieri del Dottor Site e Mister Web in lui vagavano tra il malvertising e il sito web professionale mentre la pancia gli gorgogliava fastidiosamente. L’insalata verde lucidata dall’olio extravergine di oliva con quei precisi cubetti di manzo bollito tagliati con cura da Margaret di color marrone scuro che aveva mangiato la sera prima, conferivano al tutto un aroma delizioso che, fanciullo, lo ricordava in casa della nonna Sally nel Saxset, ma senza avere più la stessa digestione.

L’ alta e possente nonna era dolce e timorosa e i vicini la preoccupavano tanto da restare chiusa in casa per la maggior parte della giornata, così che ella, dentro quel suo “bunker”, si dedicava a preparare pietanze semplici, ma elaboratissime e gustosissime per la sua famiglia.

La nonna spesso rammentava al nipote quanto fosse importante avere un buon vicinato e quanto questo possa comunque far parte della vita, condizionandola con attività alcune volte anche molto pesanti.

Dunque… La saggia nonnina, insegnava al nipote con dolcezza e saggezza a difendersi dal condizionandolo attraverso quei giusti timori a creasi intorno a se un sistema di sicurezza con un sufficiente margine di spazio di protezione attiva e passiva, per non vivere quelle sofferenze e quei fastidi che i vicini, collegati, possono creare.
Ora, siccome il malvertising la pubblicità pericolosa, ribolliva nei pensieri cupi del Dottor Site e Mister Web in lui come ribolliva il bollito in insalata nella sua pancia, il Dottor Site e Mister Web cercavano una soluzione che impedisse a questi filibustieri della rete di influire sui siti web professionali con programmi di malvertising agganciati alle URL di molti siti web.

I siti web professionali delle aziende serie ed affermate hanno per i motori di ricerca un buon ranking, per cui sono attaccati in modo nascosto, da numerosi e ripetuti link malevoli inseriti all’interno delle loro URL attraverso programmi robotizzati che utilizzano questo mezzo per rafforzare il loro ranking e inviare pubblicità pericolosa.
Questo produce un declassamento dei siti web professionali agganciati a loro insaputa a questi siti web deprecati; questi ultimi fanno così fluire il loro veleno nascosto.

Il pensiero era sempre lì e lo accompagnava ormai da diversi giorni, le osservazioni sul malvertising e gli studi sulle statistiche verificate, mettevano in risalto in modo incontrovertibile una situazione molto pericolosa.
I programmi di statistica utilizzati per verificare i link esterni collegati ai siti web professionali, davano ragione alle preoccupazioni di Site e di Web in lui. Ormai era chiaro che molti siti web professionali avevano il malvertising e la pubblicità pericolosa si era insediata ed agganciata a loro, attraverso molti link nascosti assorbendone la vita e abbassando il loto ranking nelle SERP.

Attraverso programmi robotizzati per link, il malvertising si collega a molti siti web professionali in rete e così facendo crea una potente catena che lo rafforza e crea una grande visibilità ai siti web malevoli a lui affiliati. Questi paganti compiono azioni deprecabili e quindi questi siti web sono quasi tutti indesiderati e/o deprecati dal mondo del web, ma comunque così facendo ottengono lo stesso la loro alta visibilità in rete abbassando il ranking di tutti gli altri siti web professionali.

Tratte le somme questo automaticamente fa si che un sito web professionale alla fine sia penalizzato perché il suo risultato nei motori di ricerca retrocede nelle SERP.

Il Dottor Site si stava per mettere al lavoro quando Pewington bussò alla porta e disse :
<< Dottore, la colazione è servita. Con l’occasione vorrei preavvisala che nel salone la sta aspettando il suo caro amico Von Eugen Doctor >>.

Eugen Von Faremberg è uno studioso di programmazione avanzata web 3.0, appassionato in arte contemporanea e letteratura. Colto e raffinato spesso si confrontava con durezza con il suo amico Site, ma il profondo legame di amicizia che li univa compensava l’uno le lacune dell’altro, cosicché, dalla soluzione nata dal confronto interessantissimo delle due geniali menti ne risultasse una quasi miracolosa rivelazione applicata alle problematiche web internazionali più complesse.

Von Eugen Doctor: << Site, le devo comunicare una importante scoperta che ho fatto… si tratta di una questione della massima importanza! >>.

Dottor Site e Mister Web in lui lo guardò intensamente negli occhi come se già sapesse cosa Von Eugen stava per dire, ed esclamò: << Mi Dica, ma non mi costringa a trarre le sue conclusioni affrettate come al solito… >>.

Von Eugen riprese con un tono più sommesso: << No! Un attimo mi lasci dire. Io non voglio aggredirla, anzi sono qui per sapere la sua approvazione per le soluzioni che ho dovuto adottare dopo che ieri notte ho controllato i referer della home page di molti siti web professionali come consigliato da lei due giorni fa in aula, e i risultati erano stupefacenti ed incontrovertibili e mi hanno turbato… e preoccupato moltissimo!
Il ranking nelle SERP era in calo da diversi giorni senza un apparente motivo, nulla era mutato nei codici di programmazione… intuivo già cosa poteva essere, ma avevo ancora bisogno di alcuni dati tecnici per comprendere l’arcano! >>.

Site allora aggiunse:
<< Sapevo che prima o poi ci sarebbe arrivato anche lei… i rischi sulla rete sono tanti, e bisogna costantemente vegliare, analizzare e studiare per comprendere come difendersi dai rischi ed imparare a trasformarle in occasioni!>>

Allora Von Eugen riprese: << Già sapevo che il rischio più grande per un sito web professionale è la retrocessione della sua visibilità e che le URL per siti web professionali protetti sono uno dei loro maggiori punti deboli.
Il referer spam è stata la pista di indagine da cui sono partito, ho cominciato a tracciarli, a tracciare il flusso del loro spam… ed ecco! >>. Von Eugen deglutì un attimo, poi disse una parola con tono sommesso, quasi come se il solo pronunciarla potesse causare l’evocazione di tremendi scenari: <<Il malvertising la pubblicità pericolosa!>>.

Site lo guardò negli occhi ed esclamò: << Ecco! Sapevo che ci sarebbe arrivato anche lei ed ho piacere di riscontrare sempre in lei le mie stesse preoccupazioni dopo il mio intervento in aula l’altro ieri sulla pubblicità pericolosa! E’ così! Una vera e propria piaga che stiamo conoscendo… gli attacchi arrivano da diverse fonti, da diversi domini, ed a ripetizione attraverso anche siti web che utilizzano proxy per nascondersi e per non far tracciare il loro IP… un vero e proprio flood di referer spam generato da robot automatici e non rintracciabili…>>.

Von Eugen Doctor allora sorrise, e così gli sorrise Site: <<Site! Come lei ha sempre detto, ogni problema ha la sua soluzione sul web! Basta saperla sviluppare e quindi nelle ore seguenti alla scoperta, ho lavorato alle mie ideee intensamente ed ho sviluppato alcune diverse possibili soluzioni, poi le ho combinate e testate per verificarne la loro pertinenza con esattezza, finché…>>.

Von Eugen felice di poter aiutare l’amico, cominciò ad illustrare le soluzioni sviluppate ed ormai comprovate: <<Per arginare contro la pubblicità pericolosa, è necessario poter agire sul file .htaccess e così dare più sicurezza al sito web professionale con l’implementazione dell’ .htaccess Essential che può bloccarli così:

LA SOLUZIONE
Puoi bloccare tutti i Rippers o robot malevoli, attraverso l’implementazione del .htaccess del sito web professionale inserendo questa implementazione ed adattandola un pochino alle tue impostazioni già presenti nel sito pro in questione… Il codice qui di seguito riportato blocca gli accessi indesiderati o malevoli al sito web professionale.
In tutti questi casi elencati verrà negato l’accesso e di ritorno sarà visualizzato un messaggio di errore.
Ora, qui di seguito vi sono elencati un paio di esempi di user agent che possono essere bloccati nel tuo sito web professionale.
Nota: Non includere l’ “[OR]” nell’ultima RewriteCond o il server andrà in crash, consegnando un codice errore 500 a tutte le richieste di pagina.

RewriteBase /
# useragents inizia con
RewriteCond %{HTTP_USER_AGENT} ^atraxbot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Azureus [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^geohasher [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^PycURL [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Python-urllib [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^research-scan-bot [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Sosospider [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^xenu [NC,OR]
# user agent contiene la stringa
RewriteCond %{HTTP_USER_AGENT} ^.*casper [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*goblox [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^.*sun4u [NC]
RewriteRule ^(.*)$ - [F]

È inoltre possibile includere referer specifici utilizzando le richieste HTTP_REFERER o isolando un particolare host remoto, utilizzando la stringa seguente e posizionandola all’interno del file .htaccess del sito web professionale, come segue:
REMOTE_HOST:

RewriteBase /
# blocca nome a dominio
RewriteCond %{HTTP_REFERER} ^http://.*domain-name\.com [NC,OR]
RewriteCond %{REMOTE_HOST} ^.*\.domain-name\.com$ [NC,OR]
# blocca hosts remoti avviati con mail o smtp
RewriteCond %{REMOTE_HOST} ^mail(.*)\. [NC,OR]
RewriteCond %{REMOTE_HOST} ^smtp(.*)\. [NC]
RewriteRule ^(.*)$ - [F]

Invece di consegnare a questi cattivoni un messaggio di errore, si può anche sostituire il messaggio di errore inserendo una RewriteRule nell’ultima riga con riportato il nome del dominio a cui si vuole reindirizarli.
Il vecchio risultato, se già indicizzato dai motori di ricerca, dovrà poi essere rimosso effettuando una richiesta di rimozione ai motori di ricerca. Per questa ragione consigliamo di inserire all’interno del codice di ogni pagina del sito web professionale, delle parole inutili e/o univoche, o ancora codici univoci inutili atti a essere evidenziati al motore di ricerca per poi essere di riferimento per la cancellazione prima della richiesta di rimozione, per permettere ai motori di ricerca di cancellare le pagine web in questione.

E’ anche necessario bloccare gli user agent vuoti e i referrer HTTP vuoti; non c’è motivo per i browser di richiedere solo le immagini dal tuo sito web, e se le richieste si presentano con un user agent vuoto e HTTP referrer, è certamente un bot che sta raschiando quelle immagini. La direttiva si fermerà qui di seguito a tali richieste.

# Blank UA e Referer
RewriteCond %{HTTP_REFERER} ^$ [NC]
RewriteCond %{HTTP_USER_AGENT} ^$ [NC]
RewriteRule ^(.*)\.(ico|gif|jpe?g|png|bmp|swf)$ - [F,L]

Se si desidera applicare questa regola a tutte le pagine, non importa quale il contenuto venga richiesto, sostituire la RewriteRule sopra con il codice qui sotto:

RewriteRule .* - [F,L]

Quindi se lei d’accordo vorrei concludere con lei queste osservazioni per riportarle domani a tutti gli alunni in aula, sempre che lei sia d’accordo>>.

Dottor Site e Mister Web rispose: <<Grazie, a chi ci permette di difenderci dai soliti cattivoni della rete! Stop Malvertising>>; e si congedò salutando il caro amico e si ritirò in tutta fretta.

Partecipa con un commento