Missione terminata per telescopio spaziale Herschel, energia esaurita


Ha resistito anche oltre le più rosee aspettative, ma alla fine, anche l’ultima goccia dei 2300 litri di elio superfluido, il refrigerante indispensabile per tenere in piena efficienza i sensibilissimi strumenti di bordo di cui era stato rifornito, è evaporata. Rendendo praticamente ‘cieco’ l’osservatorio spaziale Herschel dell’ESA, che termina così in maniera definitiva la sua attività scientifica. 

Un’attività che ha visto quasi quasi quattro anni di osservazioni praticamente ininterrotte del cielo nella banda della radiazione infrarossa e submillimetrica, superando le 22.000 ore complessive di osservazioni, ovvero più del 10 per cento di quanto inizialmente programmato. Questo inaspettato traguardo è solo un altro dei successi della missione che è divenuta una pietra miliare dell’astrofisica del secondo millennio, indagando in modo decisivo i processi di formazione stellare, mappando le dense e fredde nubi di materia al centro della nostra Galassia, o spingendo lo sguardo all’interno di giovani sistemi planetari e stellari, per scoprire in essi abbondanti quantità di acqua. 

Ma l’elenco sarebbe assai più lungo. Successi in cui l’Italia ha avuto un ruolo determinante: attraverso un supporto importante dell’ASI, Agenzia Spaziale Italiana, il nostro Paese ha partecipato alla costruzione di tutti e tre gli strumenti a bordo della missione, fornendo contributi tecnologici d’avanguardia che hanno visto coinvolti alcuni istituti di ricerca dell’Istituto Nazionale di Astrofisica (INAF) e due tra le industrie italiane aerospaziali più importanti, la Carlo Gavazzi Space S.p.A. (ora Compagnia Generale dello Spazio), e la Galieleo Avionica (ora Selex Galileo S.p.A.). 

“L’alto livello scientifico e tecnologico del contributo italiano alla missione è basato sull’esperienza maturata nella partecipazione a precedenti missioni spaziali per l’astronomia infrarossa, esperienza poi continuamente arricchita con l’impegno quotidiano che ricercatori e tecnici hanno dedicato a Herschel” dice Elisabetta Tommasi, dell’Unità Osservazione dell’Universo dell’Agenzia Spaziale Italiana. “L’ASI ha seguito e supportato costantemente questo cammino, che ha portato alla costituzione di un grande ‘capitale’ da mantenere e potenziare in prospettiva futura”. 

Anche l’INAF ha fornito il suo fondamentale contributo con l’Istituto di Astrofisica e Planetologia Spaziali (IAPS) di Roma che ha fornito i sistemi software di controllo dei tre strumenti di bordo, mentre l’Osservatorio Astrofisico di Arcetri e l’Osservatorio Astronomico di Trieste insieme al dipartimento di Astronomia dell’Università di Padova hanno collaborato fornendo personale altamente qualificato per i centri di controllo degli strumenti, che hanno seguito la missione sin dalle prime fasi di assemblaggio a Terra fino agli ultimi giorni di operazione, contribuendo all’aggiornamento e miglioramento continuo delle procedure di calibrazione. 


“La comunità italiana ha partecipato con entusiasmo alla missione, contribuendo significativamente sia alla realizzazione degli strumenti che alla definizione e all’analisi scientifica dei più importanti programmi osservativi” ricorda Anna Maria di Giorgio, dell’INAF-IAPS, responsabile delle attività scientifiche italiane per la missione Herschel. “È quindi con grande emozione che abbiamo accolto la notizia dell’esaurimento della riserva di elio a bordo e della conclusione della fase operativa. Oggi si chiude un pezzo importante della nostra vita – intendo quella di tutti noi che abbiamo lavorato per oltre 15 anni alla missione e ai suoi Key project scientifici. Ma c’è ancora così tanto da fare per lo sfruttamento dei dati che non possiamo permetterci di sederci sugli allori!”

L’eredità che ha lasciato Herschel alla comunità astrofisica internazionale è davvero sterminata, fatta di terabyte e terabyte di dati ancora in parte da analizzare e da cui potranno arrivare risultati importantissimi per conoscere meglio come ‘funziona’ il nostro universo. Ed è già grazie alle osservazioni di Herschel se è stata scoperta l’esistenza di onnipresenti strutture filamentari nelle regioni di formazione stellare contenute all’interno delle grandi nubi molecolari della nostra galassia, esplorate con una risoluzione spaziale senza precedenti. 

I filamenti osservati svolgono un ruolo chiave nel processo di formazione delle stelle. Le bellissime immagini di Herschel, così ricche di dettagli, mostrano come alcune nubi abbiano sviluppato filamenti così densi che stanno collassando sotto l’effetto della loro stessa gravità e aprono di fatto un nuovo capitolo sulla comprensione dei meccanismi della formazione stellare galattica. Lo studio spettroscopico nell’infrarosso con Herschel dei sistemi stellari in formazione ha, poi, permesso di osservare per la prima volta strutture ancora in fase di contrazione gravitazionale. 

Herschel ha rivelato in alcune di esse una quantità di vapor d’acqua sufficiente a riempire più di 2000 volte tutti gli oceani della Terra. Questa scoperta è stata ottenuta all’interno di un’altro dei grandi progetti scientifici della missione, quello di seguire le tracce della presenza di acqua, una molecola cruciale per la vita, a partire dalle nubi di formazione stellare sino alla sua osservazione nei dischi protoplanetari che circondano le stelle appena formate. Ma l’alta sensibilità degli strumenti a bordo di Herschel ha permesso anche di osservare la formazione di stelle nelle altre galassie, partendo da quelle vicine, come Andromeda, fino a galassie situate a miliardi di anni luce lontano da noi. 

Si è scoperto che molte tra quelle più distanti, più di 10 miliardi di anni luce, hanno un tasso di formazione stellare elevatissimo, producendo centinaia di migliaia di stelle all’anno. Cosa ne sarà adesso di Herschel? L’osservatorio spaziale continuerà le comunicazioni con la Terra per qualche tempo, permettendo agli ingegneri dell’ESA di condurre tutta una serie di test tecnici soltanto alla fine dei quali verrà spedito verso una orbita stabile ‘di parcheggio’ intorno al Sole, simile a quella di un asteroide o di una cometa.


Fonte: INAF
Foto credit: ESA – C. Carreau

Spazio, primo volo supersonico per navetta privata di Virgin Galactic


E' stato effettuato il primo test supersonico per la navetta spaziale privata SpaceShipTwo (SS2) della Virgin Galactic, la compagnia di Richard Branson che si prepara a inaugurare l'era dei voli turistici nello spazio. Lo ha annunciato la stessa società. Oggi, Virgin Galactic, la prima spaceline commerciale del mondo di proprietà di Virgin Group di Sir Richard Branson e di Abu Dhabi Aabar Investments PJS, ha completato il primo volo a razzo del suo veicolo spaziale, SpaceShipTwo (SS2).

Il test, condotto dal team di Scaled Composites (Scaled) e Virgin Galactic, segna ufficialmente l'ingresso di Virgin Galactic nella fase finale della prova del veicolo prima del servizio commerciale da Spaceport America nel New Mexico. "Il primo volo a motore della Vergine Spaceship Enterprise è stato senza alcun dubbio, il nostro unico test di volo più importante fino ad oggi", ha detto il fondatore di Virgin Galactic Sir Richard Branson, che era a terra nel Mojave per testimoniare l'occasione.

"Per la prima volta, siamo stati in grado di dimostrare i componenti chiave del sistema, completamente integrati e in volo. Il successo supersonico di oggi apre la strada ad una rapida espansione del flight envelope a motore della nave spaziale, con un obiettivo molto realistico di pieno volo spaziale entro la fine dell'anno. Abbiamo visto fare la storia oggi e non potrei essere più orgoglioso di tutti i soggetti coinvolti". Il test è iniziato alle 07:02 ora locale, quando SS2 è decollata dal Mojave Air and Space Port accoppiata al WhiteKnightTwo (WK2), portaerei della Virgin Galactic.

Al pilotaggio della SS2 vi erano Mark Stucky, pilota, e Mike Alsbury, co-pilota, che sono i piloti di test per Scaled, che hanno costruito SS2 per Virgin Galactic. Ai comandi WK2 vi erano il Capo Pilota Dave Mackay della Virgin Galactic, assistito da Clint Nichols e Brian Maisler, co-pilota e ingegnere di test di volo, rispettivamente, per Scaled. Dopo aver raggiunto 47.000 metri di altitudine ed a circa 45 minuti di volo, SS2 è stata rilasciata da WK2.


Dopo il controllo incrociato dei dati e la verifica di controllo stabile, i piloti hanno innescato accensione del motore a razzo, provocando l'ossidazione della valvola principale per aprire e  accendere il fuoco all'interno della cassa del carburante. A questo punto, SS2 è stata spinta in avanti e verso l'alto ad una quota massima di 55.000 piedi. Tutta la bruciatura del propellente è durata 16 secondi, come previsto. Durante questo tempo, SS2 è andato a regime supersonico, raggiungendo Mach 1.2.

"Abbiamo collaborato con Virgin Galactic diversi anni fa con l'aspirazione di trasformare e commercializzare l'accesso allo spazio per il pubblico più ampio", ha detto Sua Eccellenza Khadem Al Qubaisi, Presidente di Aabar Investments PJS . "Il test di oggi è un'altra pietra miliare nella realizzazione di tale aspirazione. La nostra collaborazione va rafforzandosi, ed è un ottimo esempio del desiderio di Aabar di partecipare allo sviluppo di tecnologie di livello mondiale che sono commercialmente redditizie e strategicamente importanti, sia per l'azienda, i suoi azionisti, e per Abu Dhabi ".

L'intero test di volo a razzo è durato poco più di 10 minuti, che si è concluso con un atterraggio morbido per la SS2 in Mojave alle 8:00 circa ora locale. "L'accensione del motore a razzo è andata come previsto, con la bruciatura durata come prevista, buone prestazioni del motore e solido veicolo di manovra per tutto", ha detto George Whitesides, Virgin Galactic President & CEO. "Il successo di questo test segna un punto cardine per il nostro programma. Passeremo ora ad una manciata di simili prove di volo a motore, e poi faremo il nostro primo test di volo nello spazio".

 Nei prossimi mesi, il test team Virgin Galactic e Scaled amplieranno il flight envelope a motore della nave spaziale che culminerà nel volo spaziale completo. Nel prossimo volo, entro la fine del 2013, il motore sarà tenuto acceso più a lungo e la SpaceShipTwo arriverà a un'altezza di circa 100mila metri. "Vorrei congratularmi con tutta la squadra", ha detto il presidente della Scaled Kevin Mickey. "Questo test è una pietra miliare e solo attraverso il duro lavoro del team e il grande sostegno della Virgin Galactic, che siamo stati in grado di assistere a questo importante traguardo. Saremo lieti di tutti i nostri prossimi test e successi".





Fonte: Virgin Galactic

Shylock, continua minaccia del nuovo trojan bancario a utenti Skype


Dopo il virus Dorkbot di qualche mese fa, un nuovo malware imperversa tra gli utenti di Skype. Lo Shylock banking Trojan è stato rinnovato con delle caratteristiche supplementari che permettono di diffondere il malware utilizzando anche la funzione di chat di Skype, il popolare client VoIP. Shylock ora può vagare per le reti Skype, grazie ad un nuovo plugin malware per la propagazione chiamato "msg.gsm".

Questo componente aggiunge anche funzionalità tra cui la possibilità di inviare messaggi e trasferire file utilizzando Skype, la possibilità di bypassare gli avvisi di Skype e restrizioni, nonché la possibilità di pulire i messaggi e trasferimenti da history di Skype. Shylock è uno dei più avanzati trojan-banker in circolazione, ed è in grado estrarre dai pc colpiti dati bancari ed altre informazioni estremamente sensibili.

Il nome Shylock viene dall’usuraio personaggio del Mercante di Venezia. Accanto alla nuova capacità di diffondersi attraverso Skype, Shylock può diffondersi anche attraverso azioni locali e le unità rimovibili. L'infezione del Trojan permette ai criminali informatici  di rubare i cookie, iniettando HTTP in un sito web, l'installazione di VNC (che consente il controllo remoto del desktop compromesso), e upload di file, tra le altre funzioni.

Shylock è un ceppo di Trojan bancario che ha fatto la sua prima apparizione nel 2011 e in questi giorni è principalmente destinato a clienti bancari del Regno Unito, secondo i dati raccolti dalla società di sicurezza danese CSIS. "Shylock è uno dei più avanzati Trojan-banker attualmente in uso in attacchi contro i sistemi di home banking", avverte CSIS. "Il codice è in continuo aggiornamento e nuove funzioni vengono aggiunte regolarmente."

Microsoft ha recentemente ha annunciato che non applicherà più Messenger, sostituendolo con Skype. Questo può essere stato un fattore che ha stimolato l'interesse dei criminali informatici sconosciuti dietro il malware con lo di sviluppo di componenti aggiuntivi che permettono di diffonderlo attraverso Skype chat. Il consiglio per gli utenti è quello di usare il buon senso e divieto di installare qualunque plugin che non provenga da fonti attendibili.

Oltre alla prudenza, serve anche qualche arma di difesa. Ricordare di eseguire scansioni periodiche del sistema e scegliere per proteggersi un buon antivirus. Le versioni precedenti (o configurazioni) del malware dirottano le sessioni di live chat, nel tentativo di ingannare i clienti delle banche commerciali al fine di sottrarre le loro credenziali di accesso bancarie o autorizzare le transazioni fraudolente. 


Via: The Register

Blogmeter, quotidiani e social media: più bravi su Facebook e Twitter


Come gestiscono i social media le testate quotidiane italiane? Come si rapportano ai loro lettori su Facebook e Twitter, i due social media più importanti? Ai due interrogativi ha risposto Blogmeter attraverso una ricerca presentata durante il recente Festival Internazionale del Giornalismo di Perugia. Blogmeter, grazie al suo strumento di analisi Social Analytics, ha rilevato ben 11,5 milioni di interazioni, sviluppate da 56 pagine facebook e 38 account twitter delle maggiori testate giornalistiche italiane nei primi tre mesi dell’anno. 

Le performance del comparto su Facebook sono riassunte nella Engagement Map che mostra il posizionamento secondo il numero dei fan (ascisse), il total engagement come somma di like, commenti, condivisioni, post spontanei in bacheca (ordinate), il numero di post scritti (ampiezza della bolla). Il quadrante dei leader è occupato da La Repubblica, Il Fatto Quotidiano, Fanpage.it (la testata all digital che raccoglie più fan di tutti), Leggo (al terzo posto per numero di condivisioni e commenti suscitati). 

Seguono a distanza il Corriere della Sera e La Gazzetta dello Sport. La Repubblica stacca tutti per quantità di interazioni: sono circa 5 milioni quelle suscitate in 3 mesi, mentre il Fatto Quotidiano si ferma a 2 milioni. Promettente la posizione de Il Messaggero, Il Giornale, Libero, The Huffington Post, che riescono a coinvolgere i propri lettori pur non avendone un numero superiore alla media. Purtroppo la maggior parte delle testate ricade nel quadrante dei laggards (non visualizzati per consentire una migliore lettura del grafico) coloro che sono in forte ritardo sia in termini di fan che di coinvolgimento. 

 Su Twitter i meglio posizionati in termini di follower e di mention (RT, Reply e citazioni spontanee ricevute) sono La Repubblica (con oltre 800.000 follower e circa 207.000 menzioni in 3 mesi), Il Corriere della sera, Il Fatto Quotidiano, La Stampa, Il Sole 24 Ore, La Gazzetta dello Sport e Il Post. Con un numero di citazioni superiori alla media del settore anche Linkiesta e Fanpage.it. Anche qui la maggior parte delle testate risulta in ritardo nell’uso del mezzo. I giornali più grandi tendono ad usare più account tematici verticali e a sfruttare la notorietà dei giornalisti per socializzare le notizie. 

Paga la pratica del live twitting e l’uso degli hashtag in occasione di eventi quali le elezioni e Sanremo. "Rispetto allo scorso anno emerge una maggiore presa di coscienza dell’importanza dei social media – sostiene Vincenzo Cosenza, social media strategist di Blogmeter - anche se l’utilizzo è meramente strumentale a veicolare traffico sul sito web principale. Scarso l’uso di tecniche di coinvolgimento del lettore: i link puri e semplici vengono preferiti alle foto, che però risultano essere più apprezzate dai lettori.

In definitiva si usano ancora i social media come “nuove edicole”, senza una cura del contenuto postato su Facebook e Twitter, né del dialogo con fan e follower. Eppure l’attenzione alla community potrebbe rivelarsi molto importante nel lungo periodo, per fidelizzare i lettori e stimolarli, eventualmente, ad acquistare contenuti di qualità". Il centro storico di Perugia è stato popolato da turisti, visitatori e ospiti provenienti da ogni parte del mondo, confermando il festival un grande evento promozionale per la città a livello internazionale e una grande occasione di networking.


Fonte: Blogmeter

Google Transparency Report, cresce il controllo dei governi sul Web


I governi sono sempre più rumorosi che mai, almeno se lo si domanda a Google. La società di ricerca ha già notato in rapido aumento la censura in questi ultimi mesi, ma il suo ultimo Transparency Report semetrale ha rivelato un aumento del 26 per cento delle richieste di takedown verso la fine del 2012, più del doppio rispetto al 2009. Gran parte del salto può essere attribuito al Brasile, le cui elezioni comunali hanno innescato un'ondata di richieste anti-diffamazione dei candidati, così come la blacklisting law russa che consente  il takedown dei siti.

Il Transparency report della società, pubblicato ormai da tre anni, segnala che tra luglio e dicembre 2012 ci sono state 2.285 richieste governative di rimozione, che hanno coinvolto 24.179 porzioni di contenuti, raggiungendo la cifra più alta mai registrata. Quasi il doppio rispetto al primo semestre del 2012, in cui Google ha contato 1.811 richieste di cancellare più di 18.000 elementi. Google sostiene che molte delle richieste pervenutele sono state ordinanze di tribunali che chiedevano la rimozione di opinioni negative su uomini e donne di governo.

"Appena abbiamo raccolto e pubblicato più dati nel tempo - scrive Google -, è diventato sempre più chiaro che l'ambito dei tentativi del governo di censurare i contenuti sui servizi di Google è cresciuto. In questo particolare periodo di tempo, abbiamo ricevuto mandati da diversi paesi per rimuovere post critici su funzionari di governo o loro collaboratori". Si può leggere di più su queste richieste, cercando al annotazioni sezione della Relazione sulla trasparenza.

Di particolare rilievo sono stati tre eventi che hanno avuto luogo nella seconda metà del 2012. C'è stato un forte aumento delle richieste da Brasile , dove Google ha ricevuto 697 richieste di rimozione di contenuti dalle sue piattaforme (di cui 640 gli ordini dei tribunali con una media di 3,5 court order al giorno durante questo periodo di tempo), fino a 191 nel corso della prima metà dell'anno. Il grande motivo per il picco sono state le elezioni comunali, che hanno avuto luogo lo scorso autunno.


Quasi la metà delle 316 richieste totali per l'esattezza hanno chiesto la rimozione di 756 pezzi di contenuti relativi a presunte violazioni del codice elettorale brasiliano, che vieta la diffamazione e il commento che offende i candidati. Google sta facendo appello a molti di questi casi, sulla base del fatto che il contenuto è protetto dalla libertà di espressione secondo la Costituzione brasiliana. Un altro posto dove Google ha visto un aumento è stata la Russia, dove una nuova legge entrata in vigore lo scorso autunno.

Nella prima metà del 2012, Google ha ricevuto sei richieste, mentre nella seconda metà dell'anno, ha ricevuto 114 richieste di rimozione di contenuti, delle quali 107 citando questa nuova legge. Durante questo periodo, Google ha ricevuto richieste di informazioni provenienti da 20 paesi per quanto riguarda i video di YouTube contenenti spezzoni del film "Innocenza dei musulmani". Google ha limitato la visualizzazione dei video in diversi paesi, in conformità con la legge locale, dopo aver ricevuto formali reclami legali.

Ha anche temporaneamente impedito la visualizzazione del video in Egitto e Libia, per le circostanze particolarmente difficili che ci sono, ma respingendo la richiesta di rimozione in Usa.  Il video, infatti, provocò l'assalto al consolato statunitense a Bengasi, in cui fu ucciso l'ambasciatore Cristopher Stevens, insieme a due marines e un funzionario. Google ha anche effettuato un paio di miglioramenti alla relazione di trasparenza rispetto al suo ultimo aggiornamento. È possibile visualizzare i dettagli scorrendo al fondo di ogni pagina specifica del paese.

Google ha anche rinfrescato l'aspetto della sezione traffico, rendendo più facile vedere dove e quando si sono verificate le  interruzioniai servizi di Google. È possibile visualizzare una mappa dei servizi di Google che sono attualmente interrotti, si può vedere una mappa di tutte le interruzioni conosciute dal 2009, e si può facilmente navigare tra i periodi e le regioni temporali. Nei limiti del possibile, inoltre, Google informa nei tempi opportuni gli utenti coinvolti dalla richiesta di rimozione, purché non ci siano ostacoli legali o manchino i contatti.


Fonte: Google
Via: Engadget

Battleloot Adventure è miglior videogame indipendente italiano 2012


Battleloot Adventure, sviluppato da Digital Tales su Microsoft Windows Azure, si è aggiudicato il titolo di miglior videogioco indipendente italiano nella prima edizione del Drago d’Oro, il premio promosso da AESVI (Associazione Editori e Sviluppatori Videogiochi Italiani) per celebrare l’eccellenza della produzione videoludica. Unendo i generi strategico e RPG, ma strizzando l’occhio anche ai casual gamer, Battleloot Adventure conduce i giocatori in un viaggio memorabile attraverso le regioni più fantastiche e assurde del regno di Kameloot, ormai allo stremo per via dell’oppressiva pressione fiscale imposta dal sovrano.

Privacy, gestori Tlc e Isp dovranno segnalare violazioni dei data base


Scatta l'obbligo per società telefoniche e Internet provider di avvisare il Garante privacy e gli utenti quando i dati trattati per fornire i servizi subiscono gravi violazioni a seguito di attacchi informatici o di eventi avversi, come incendi o altre calamità, che possano comportare perdita, distruzione o diffusione indebita di dati. 

Il Garante per la privacy ha infatti adottato, all'esito di una consultazione pubblica, un provvedimento generale che fissa, in attuazione della direttiva europea sulla privacy nel settore delle comunicazioni elettroniche, gli adempimenti per i casi in cui si dovessero verificare i cosiddetti "data breach". 

Il provvedimento, pubblicato nella Gazzetta Ufficiale, stabilisce che l'obbligo di comunicare le violazioni di dati personali, contenuti in particolare in data base elettronici o cartacei, spetta esclusivamente ai fornitori di servizi telefonici e di accesso a Internet (e non, ad esempio, ai siti internet che diffondono contenuti, ai motori di ricerca, agli internet point, alle reti aziendali). 

Entro 24 ore dalla scoperta dell'evento, società di tlc e Isp devono fornire al Garante le informazioni necessarie a consentire una prima valutazione dell'entità della violazione (ad esempio, tipologia dei dati coinvolti, descrizione dei sistemi di elaborazione, indicazione del luogo dove è avvenuta la violazione). Per agevolare questo adempimento il Garante ha predisposto un modello di comunicazione disponibile sul suo sito (www.garanteprivacy.it). 

Nei casi più gravi di violazione, però, oltre che l'Authority, le società telefoniche e gli Isp dovranno informare entro tre giorni anche ciascun utente coinvolto, facendo riferimento a alcuni parametri fondamentali: il grado di pregiudizio che la perdita o la distruzione dei dati può comportare (furto di identità, danno fisico, danno alla reputazione); l' "attualità" dei dati (dati più recenti possono rivelarsi più interessanti per i malintenzionati); la qualità (finanziari, sanitari, giudiziari etc.) e la quantità dei dati coinvolti. 

La comunicazione agli utenti non è dovuta se si dimostra di aver utilizzato misure di sicurezza e sistemi di cifratura e di anonimizzazione che rendono inintelligibili i dati, ma il Garante può comunque imporla nei casi più gravi. Per consentire l'attività di accertamento del Garante, le società telefoniche e i provider dovranno tenere un inventario costantemente aggiornato delle violazioni subite che dia conto delle circostanze in cui queste si sono verificate, le conseguenze che hanno avuto e i provvedimenti adottati a seguito del loro verificarsi. 

La mancata o ritardata comunicazione al Garante espone le società telefoniche e gli Internet provider a una sanzione amministrativa che va da 25mila a 150mila euro. Sanzioni previste anche per la omessa o mancata comunicazione agli utenti che vanno da 150 euro a 1000 euro per ogni società, ente o persona interessata. La mancata tenuta dell'inventario aggiornato è punita con la sanzione da 20mila a 120mila euro.

Syrian Electronic Army rivendica tweet AP su falso attentato a Obama


Si fanno chiamare "Syrian Electronic Army" e si autodefnisicono "un gruppo di giovani siriani entusiasti che non possono rimanere indifferenti di fronte alle distorsioni dei fatti sulla guerra in Siria". Sono loro gli hacker dietro l'attacco all'account Twitter di Associated Press, una delle più prestigiosa agenzie di stampa internazionali. Il falso tweet "La casa Bianca è stata colpita e Obama ferito" partito dal profilo Ap, quasi 2 milioni di follower, ha scatenato immediatamente il caos sui mercati, spiega TMNews, facendo bruciare soldi veri, non virtuali.

Il gruppo, che afferma di essere vicino al governo di Bashar al Assad, già in passato aveva portato a termine altri attacchi contro giganti dell'informazione come la National Public Radio, BBC e CBS News, Reuters e Al Jazeera. Non solo, gli hacker intervengono nel dibattito online inondando di commenti pro Assad i social network. Blitz mirati che fanno toccare con mano le conseguenze e i rischi della cyber guerra. L'account del SEA è stato sospeso, mal 'episodio lancia un ombra sull'affidabilità di Twitter, ormai un sistema di informazione parallelo rispetto alle fonti tradizionali.



L'Associated Press ha poi confermato la compromissione, dicendo che il Syrian Electronic Army, ha rivendicato la responsabilità di un hack che è stato preceduta da una campagna di attacco di phishing su reti AP. Contrariamente a quanto è stato ampiamente riportato, l'AP non ha detto con certezza che questo account è collegato alla precedente campagna di phishing. I sistemi di autenticazione a due fattori richiedono agli utenti di autenticarsi con un meccanismo, di solito una password, prima di chiedere loro di autenticarsi con un secondo di solito codice numerico inviato via SMS a un dispositivo mobile.

Molti profili sono stati colpiti da hacker ma è la prima volta che viene coinvolta una fonte d'informazione affidabile come l'Ap. Il falso tweet ha riaperto quindi anche il dibattito sulle pratiche di sicurezza e privacy su Twitter. Il gruppo di hacker online e attivisti affermano di essere sostenitori del presidente siriano Bashar al-Assad e cercano di contrastare quello che definiscono "notizie inventate" sulla Siria trasmesse dai media arabi e occidentali. Sul loro sito web -  spiega la BBC -  il SEA si descrive come "un gruppo di entusiasti giovani siriani che non potevano rimanere passivi verso la massiccia distorsione dei fatti circa la recente rivolta in Siria".

Utilizzando le piattaforme di social media Facebook e Twitter, il SEA ha lanciato campagne di spamming organizzate e attacchi denial of service individuali, di gruppo e siti web di organizzazione che credono minare la legittimità del governo siriano. Tra i primi obiettivi di spam gli account Facebook del presidente americano Barack Obama e l'ex presidente francese Nicolas Sarkozy. L'obiettivo del SEA è chiaramente politico. Sul  loro sito web, gli hacker accusano gruppi pro-opposizione e gli attivisti di usare Facebook per "diffondere le loro idee distruttive... esortando i manifestanti a terrorizzare i civili che si rifiutano di unire le loro dimostrazioni e attaccare le strutture pubbliche".


Mentre ancora non è chiaro a chi sia legato il SEA, se non del tutto, al governo siriano, una rivendicazione del gruppo sembra averlo finora respinto. Un sito web affiliato, che ha detto di essere progettato dai membri del gruppo nega di ricevere ordini da parte delle autorità siriane. Il ricercatore del Citizen Lab dell'Università di Toronto, Helmi Noman ha effettuato il monitoraggio del gruppo dalla sua prima attività online nel 2011. Noman ha scoperto che il sito ora defunto del SEA è stato registrato dalla Syrian Computer Society, una organizzazione non governativa che sembra legata al presidente siriano Bashar al-Assad.

"La nostra è un'azione di protesta contro la copertura che i media occidentali riservano all'opposizione siriana - spiega l'autoproclamato leader del gruppo che dice di chiamarsi Mohammed - Le loro inchieste ingannevoli hanno ferito la Siria e il popolo siriano". "È importante capire cosa sia successo - spiega Dan Gallagher a Euronews, commissario per la sicurezza dei mercati - e assicurarci che nessun investitore sia stato danneggiato". Problemi alla sicurezza nel 2009 hanno costretto Twitter a scontrarsi con la Federal Trade Commission Twitter, impegnandosi a controlli e audizioni sul fronte della sicurezza per i prossimi due decenni.





Via: Associated Press

Polizia australiana arresta presunto leader del gruppo hacker LulzSec


La polizia federale in Australia ha arrestato il leader che si professa appartenere ad un importante collettivo hacker internazionale conosciuto come LulzSec, forse più noto per le sue affermazioni secondo le quali sarebbe dietro un attacco informatico che ha messo offline il sito web della CIA nel 2011. La polizia federale australiana (AFP) ha detto di aver arrestato Martedì notte il 24enne cittadino australiano che sarebbe collegato ad un attacco portato questo mese ad un sito web governativo australiano non specificato.

IBM Labs: una collaborazione punta a sfruttare energia di 2.000 Soli


Nella Giornata della Terra gli scienziati hanno annunciato una collaborazione per lo sviluppo di un sistema fotovoltaico economico, in grado di concentrare in media la potenza di 2.000 Soli, con un’efficienza capace di raccogliere l’80% della radiazione in arrivo e convertirla in energia utile. Il sistema proposto può essere costruito ovunque vi sia una carenza di energia sostenibile, acqua potabile e aria fredda, a un costo tre volte inferiore rispetto a sistemi equiparabili.

SUSE Studio 1.3, soluzione completa per gli ambienti cloud e virtuali


SUSE® ha annunciato il lancio di SUSE Studio™ 1.3 per gli ISV e i data center aziendali. L’ultimo aggiornamento agli strumenti per la costruzione delle immagini delle applicazioni include nuove funzionalità per garantire una più semplice implementazione e gestione autonoma, di workload portabili attraverso ambienti cloud e virtuali come Amazon EC2, OpenStack e SUSE Cloud.

Attraverso la riduzione dei tempi di implementazione delle applicazioni e dei tempi del loro ciclo di vita, le aziende IT, i software vendor indipendenti e le aziende produttrici sono in grado di assicurare nuove tecnologie e servizi con tempi molto più rapidi in modo da beneficiarne in competitività. SUSE Studio supporta le aziende a costruire le immagini di applicazioni software in diversi formati e poi renderle disponibili in hardware fisici in ambienti virtuali o cloud.

SUSE Studio, infatti, raccoglie tutte le informazioni relative ad un processo in modo che l’utente possa velocemente riprodurle, cambiarle, testarle e aggiornarle attraverso un’interfaccia utente semplificata facilmente accessibile con un web browser. "ownCloud fornisce alle aziende servizi di sincronizzazione dei file e condivisione dei software con le infrastrutture esistenti direttamente on-site, offre funzionalità facilmente estendibili e prevede la stessa usabilità di una qualunque soluzione di sincronizzazione e condivisione” dichiara Matt Richards, VP of Products di ownCloud.

"Con SUSE Studio siamo in grado di creare, configurare e fornire ai nostri Clienti le immagini ownCloud. Semplificando l’intero processo attraverso l’interfaccia intuitiva di SUSE Studio le operazioni di configurazione, manutenzione e gestione delle applicazioni software vengono gestite in pochi click. I nostri Clienti trovano decisamente più semplice scaricare, testare e implementare ownCloud con conseguenti ritorni sulla top line mentre noi riusciamo a sviluppare il nostro software in maniera veloce, semplice e ripetibili con notevoli benefici sulla bottom line”.

SUSE Studio 1.3 prevede nuove funzionalità per migliorare le implementazioni cloud e virtuali. Quest’ultimo aggiornamento potenzia anche la gestione delle applicazioni attraverso ambienti fisici, virtuali e cloud.

Miglioramenti per il Cloud SUSE
Studio 1.3 è strettamente integrato a SUSE Cloud, la piattaforma di cloud computing promossa da OpenStack. Grazie a SUSE Studio 1.3, le aziende hanno ora la possibilità di scegliere SUSE Cloud come applicazione predefinita per la creazione delle immagini. Inoltre, utilizzando la funzionalità webhooks di SUSE Studio, tutte le immagini di SUSE Cloud create in SUSE Studio vengono automaticamente e immediatamente importate all’interno di SUSE Cloud.


Tutto questo comporta un’estrema semplificazione delle attività di provisioning dei carichi di lavoro e fornisce le necessarie risorse di computing per ottimizzare i processi di business con un conseguente miglioramento dei cicli da parte dello staff IT. I miglioramenti sul fronte del cloud pubblico prevedono la possibilità di caricare e lanciare le istanze Amazon EC2 direttamente da SUSE Studio per tutti gli utenti dei servizi web di Amazon. Inoltre, SUSE Studio 1.3 ora supporta tutte le regioni Amazon EC2.

Miglioramenti per la Virtualizzazione
In accordo con l’Enterprise Strategy Group, gli ambienti IT sono estremamente eterogenei, caratterizzati da sistemi operativi multipli, diverse piattaforme hardware e applicazioni di business in funzione simultaneamente. Secondo una recente indagine condotta su un campione di 4.400 IT manager, il 65% delle aziende coinvolte ha risposto attraverso più di un hypervisor.

SUSE Studio 1.3 supporta tutti i processi di virtualizzazione strategica e delle piattaforme cloud inclusi VMware, VirtualBox, Xen, KVM, Hyper-V, OVF virtual machines, SUSE Cloud, OpenStack e Amazon EC2. SUSE Studio 1.3 aumenta, inoltre, la portabilità dei software per ambienti cloud e virtuali e permette di ridurre i costi di sviluppo attraverso immagini per le applicazioni ottimizzate e pronte per funzionare sulle varie piattaforme di virtualizzazione e cloud.

Lifecycle Management
SUSE Studio 1.3 garantisce un modo semplice per mantenere e aggiornare le immagini sviluppate con SUSE Studio. Un nuovo aggiornamento in SUSE Studio consente agli amministratori di aggiungere il SUSE Lifecycle Management Server come elemento di gestione prima che il processo di costruzione di una immagine inizi. SUSE Lifecycle Management Server fornisce alle aziende una piattaforma unica per gestire i diritti e fornire aggiornamenti consolidati alle immagini sviluppate attraverso SUSE Studio.

"SUSE Studio, in particolare in combinazione con SUSE Manager e SUSE Cloud, è stato sviluppato per semplificare l’implementazione delle applicazioni e supportare le aziende ad ottimizzare costi e risorse nella migrazione verso il cloud” afferma Gianni Sambiasi, Sales Manager, SUSE Italy. “La nuova versione SUSE Studio 1.3 è il nuovo passo per migliorare l’efficienza dell’implementazione e della gestione del ciclo di vita delle applicazioni in ambienti verticali o cloud”.

SUSE Studio SUSE
Studio ha supportato migliaia di implementazioni di immagini di applicazioni in ambienti fisici, virtuali e cloud. SUSE Gallery è uno store online gratuito, disponibile per i Clienti SUSE e la comunità open source, per pubblicare, condividere e promuovere immagini di applicazioni software e appliance. Ad oggi, più di 370.000 utenti registrati della versione online di SUSE Studio (www.susestudio.com) hanno sviluppato più di 1.800.000 immagini di applicazioni di cui più di 19.000 pubblicate all’interno della SUSE Gallery. Per ulteriori informazioni visitare il sito: http://www.suse.com/products/susestudio/


Fonte: Hotwire Pr

Biocarburanti, dai batteri transgenici per produrre Diesel on demand


Sembra fantascienza, ma un gruppo di ricerca dell'Università di Exeter, con il supporto di Shell e Biotechnology and biological sciences research Council (Bbsrc) Industry interchange partnership grant, hanno sviluppato un metodo per far produrre ai batteri diesel su richiesta. Il risultato, pubblicato sulla rivista dell'Accademia di Scienze degli Stati uniti (Pnas), si deve a un gruppo coordinato dal britannico John Love dell'università di Exeter a Devon.Il diesel, prodotto da particolari ceppi di batteri escherichia coli, è quasi identico al gasolio convenzionale e quindi non ha bisogno di essere mescolato con i prodotti petroliferi come spesso richiesto dai biodiesel derivati da oli vegetali.

Il team di Exeter spiega che «Mentre la tecnologia deve ancora affrontare molte sfide significative per la sua commercializzazione, il diesel prodotto dai batteri di E. coli è quasi identico al gasolio convenzionale. Questo significa che non ha bisogno di essere miscelato ai prodotti petroliferi come spesso richiesto per il biodiesel derivato da oli vegetali. Questo significa anche che il diesel può essere utilizzato nelle attuali infrastrutture di rifornimento esistenti, perché motori, oleodotti e petroliere non hanno bisogno di essere modificati. I biocarburanti con queste caratteristiche vengono definiti "drop-ins"». 

John Love, che insegna bioscienze all'università di Exeter, sottolinea che «La produzione di un biocarburante commerciale che possa essere utilizzato senza la necessità di modificare i veicoli era fin dall'inizio l'obiettivo di questo progetto. Sostituire il diesel convenzionale con un biocarburante carbon neutral a livello commerciale sarebbe un enorme passo verso il raggiungimento del nostro obiettivo di una riduzione dell'80% delle emissioni di gas serra entro il 2050. La domanda globale di energia è in aumento e un combustibile che è indipendente sia dalle fluttuazioni del prezzo del petrolio a livello mondiale che dall'instabilità politica è una prospettiva sempre più attraente». 


Gli escherichia coli trasformano naturalmente gli zuccheri in grasso per realizzare le membrane cellulari. Sfruttando questo processo naturale di produzione di olio possono essere create molecole di olio combustibile sintetico. La produzione su larga scala utilizzando l'E. coli come il catalizzatore è già conosciuta nell'industria farmaceutica e, anche se il biodiesel è attualmente prodotto in piccole quantità in laboratorio, il lavoro dei ricercatori continuerà a vedere se questa può essere una strada commercialmente praticabile per produrre combustibili "drop in". 

Rob Lee, di Shell projects & technology ha detto: «Siamo orgogliosi del lavoro svolto dalla Exeter utilizzando biotecnologie avanzate per creare le specifiche molecole di idrocarburi che conosciamo e che continueranno ad essere molto richieste in futuro. Mentre la tecnologia deve ancora affrontare diversi ostacoli prima della sua commercializzazione, esplorare questo nuovo metodo di produzione di biocarburanti, insieme ad altre tecnologie intelligenti, speriamo che ci possa aiutare ad affrontare le sfide per limitare l'aumento delle emissioni di anidride carbonica, anche in risposta al fabbisogno globale in crescita di carburante per i trasporti».

Resta da vedere se il combustibile prodotto in questo modo sarà in grado di competere in termini di costi con il diesel convenzionale. Inoltre, l'energia non viene mai dal nulla, e l'energia contenuta all'interno di questo combustibile batterico è originata principalmente nel brodo degli acidi grassi in cui sono cresciuti i batteri. Come risultato, a seconda della fonte di questi acidi grassi, questo nuovo carburante potrebbe essere soggetto ad alcune delle stesse critiche mosse ai biocarburanti attualmente in produzione. Per uno, c'è la tesi secondo cui la conversione di cibo (mais, soia o altre colture) in combustibile provoca effetti a catena nel mercato alimentare globale, l'aumento della volatilità dei prezzi alimentari, come riporta uno studio delle Nazioni Unite dello scorso anno.


Fonte: Exter
Via: Smithsonianmag
Foto Credit: Marian Littlejohn

Samsung, nuovo smartphone Galaxy S4 dal 27 aprile in Italia a 699 €


Samsung si lancia al contrattacco di Apple con il suo nuovo smartphone di punta, il Galaxy S4 che debutterà venerdì in Corea del Sud e in Italia il giorno successivo, sabato 27 aprile. Con un monitor da 5 pollici a tecnologia "Amoled", ovviamente touch screen, due fotocamere, di cui la principale da 13 megapixel, connessione 4G e una batteria di lunga durata da 2600 mAh, ad un costo dichiarato di 699 euro è chiaramente un dispositivo destinato a dare del filo da torcere all'iPhone 5 della rivale californiana. 

"Oggi uno smartphone deve accompagnare la persona nell'intero arco della giornata, aiutandola e facilitandola nelle proprie attività quotidiane, sia nella vita professionale che in quella privata. Galaxy S 4 risponde perfettamente a questa esigenza", ha affermato Carlo Barlocco, direttore di vendite e marketing di Samsung Electronics Italia. E "per la prima volta nella storia dei prodotti Samsung - ha aggiunto - c'è anche un'ampia gamma di accessori legati alla salute e alla massima personalizzazione del proprio smartphone".


L'ampio display Full HD è reso ancora più resistente dal nuovo Corning Gorilla Glass, mentre da sabato sarà disponibile in due versioni cromatiche: Black Mist e White Frost. Per tutti i clienti che sceglieranno di acquistare un dispositivo italiano ed effettueranno la registrazione al Samsung Exclusive, dice il produttore, sarà disponibile un pacchetto di servizi che comprende la possibilità di sottoscrivere gratuitamente un anno di assicurazione contro danni accidentali non coperti da garanzia e una speciale assistenza, che prevede servizio di ritiro e riconsegna a domicilio dello smartphone. 

Tra le numerose funzioni avanzate il dispositivo offre quella di "Doppia Fotocamera", cui è possibile realizzare foto e video in contemporanea su entrambe le fotocamere, quella posteriore da 13 megapixel e quella anteriore da 2 megapixel, per avere degli scatti sorprendenti che uniscono l'immagine di chi scatta con l'ambiente fotografato. Tra le 12 modalità di scatto disponibili, Scatto Dinamico consente di visualizzare la sequenza dei movimenti di un'azione in un'unica foto, mentre con Audio Foto l'immagine diventa ancora più reale grazie alla possibilità di registrare un suono o una voce al momento dello scatto e abbinarlo alla fotografia.


Il nuovo servizio Samsung Hub sostituisce e integra i vari hub di Samsung dedicati a musica, video, giochi e libri. Accedendo ad un unico store, gli utenti hanno la possibilità di esplorare, ricercare e scaricare contenuti multimediali delle diverse tipologie presenti nel servizio. Il Galaxy S4 lancia poi per la prima volta sul mercato il servizio "WatchOn", che permette di ricercare contenuti video su più piattaforme, dai canali TV in chiaro al video-on-demand. Offre anche la guida TV, consigli personalizzati, sviluppati sulla base delle preferenze di visione dell'utente, e consente di condividere i proprio programmi e film preferiti sui social network. 

Lo smartphone si trasforma inoltre in un telecomando universale, consentendo così agli utenti di scegliere i programmi TV preferiti e visualizzarli sul proprio televisore. I vari applicativi presenti, dice la casa coreana, consentono anche di superare barriere fisiche e linguistiche, consentendo di condividere passioni ed emozioni con chi ci è più caro, ovunque si trovi e qualunque sia la sua nazionalità. Il nuovo smartphone consente anche esperienze di socializzazione nuove ascoltando musica, scattando fotografie e video: la funzione Condivisione Musica permette a più persone di ascoltare la stessa canzone su più Galaxy S4, ottenendo un suggestivo effetto di amplificazione del suono.




Via: TMNews

Spazio, acqua in atmosfera di Giove portata dalla Shoemaker-Levy 9


Che quell’acqua presente nella stratosfera di Giove fosse dovuta all’impatto della Cometa Shoemaker-Levy 9 sul pianeta gassoso avvenuto nel 1994, lo aveva già ipotizzato uno studio condotto nel 1994 da Cristiano Cosmovici e Stenlio Montebugnoli, ma mancavano le prove. Ora la conferma di quell’ipotesi giunge dal satellite dell’ESA, Herschel. Nell'emisfero meridionale esiste una quantità di acqua di 2-3 volte superiore a quella dell'emisfero settentrionale, con la massima concentrazione proprio nei punti di impatto cometario.

La sonda, lanciata nel 2009, ha utilizzato i suoi sensibili raggi infrarossi per mappare la distribuzione verticale e orizzontale della ”firma chimica dell’acqua” nell’atmosfera di Giove, fornendo i dati che hanno permesso agli astrofisici del Laboratoire d’Astrophysique de Bordeaux, di giungere alla definitiva conclusione che il 95% di quell’acqua è arrivata con la caduta della cometa nel 1994. Lo studio è stato pubblicato sulla rivista Astronomy and Astrophysics, il 23 aprile 2013


“Le osservazioni di Herschel a 18 anni di distanza sono una prima conferma della validità delle nostre pioneristiche osservazioni” dicono Cristiano Cosmovici, dell’INAF - IAPS e Stenlio Montebugnoli, dell’INAF-IRA. “La scoperta - continuano - fu resa possibile grazie alla realizzazione a Medicina di uno spettrometro digitale che si basava sul calcolo diretto della FFT (Fast Fourier Transfom) dei dati ottenuti digitalizzando direttamente il segnale a radiofrequenza”.


“Un approccio molto particolare per quei tempi, viste le grandi velocità di calcolo che erano richieste dal pre-processing on line, che permise una alta risoluzione temporale. Le osservazioni vennero eseguite nel Luglio 1994 a 22 GHz, riga MASER dell’acqua, e hanno mostrato che l’esplosione dei 21 frammenti cometari nell’alta atmosfera liberava le molecole di acqua cometaria che venivano poi eccitate in modo da presentare una intensa emissione MASER”. 

Era questa la prima evidenza di emissione MASER, ben conosciuta nel mezzo interstellare, ma mai osservata nel sistema solare. Le osservazioni si protrassero per 3 mesi evidenziando il fatto che l’acqua si era distribuita nella zona di impatto andando man mano a diminuire di intensità. Questa scoperta è stata poi usata come mezzo di diagnostica per la ricerca di acqua in esopianeti dato che a grandi distanze nella galassia solo una riga di intensità MASER sarebbe stata rilevabile con i radiotelescopi.


Fonte: INAF
Via: CNRS
Foto credit: NASA
Foto credit: Hubble Space Telescope Comet Team and NASA

Hacker violano email eletti M5S, PD precisa: nessun rapporto con noi


Le caselle di posta elettronica di una trentina di parlamentari del Movimento 5 Stelle sono state «bucate» per mesi e il loro contenuto letto e «salvato». I «pirati», che si autodefiniscono «Gli hacker del Pd», in un messaggio sul loro sito (http://glihackerdelpd.bitbucket.org/) pubblicato anche su YouTube, minacciano M5S di rendere noto il contenuto integrale delle mail dei parlamentari se non verranno esaudite le loro richieste: la «pubblicazione immediata» dei «Redditi e patrimoni di “Giuseppe Grillo” e “Gianroberto Casaleggio”», nonché il «dettaglio dei ricavi derivanti dal sito `www.beppegrillo.it´ e correlati».

Facebook annuncia realizzazione nuovo data center, pronto nel 2014


Facebook sta realizzando un data center vicino a Des Moines, Iowa, per rafforzare la sua potenza di calcolo man mano che rotola fuori nuovi servizi e, dato il crescente uso di smartphone per aumentare la potenza della sua infrastruttura. Questa struttura ad Altoona, Iowa, sarà la quarta per il social network dal 2010, quando Facebook ha iniziato la costruzione nel suo primo data center a Prineville, Oregon.

Ambiente, accordo di collaborazione ENEA-CNEL per Green Economy


Il Presidente del CNEL, Antonio Marzano, e il Commissario dell’ENEA, Giovanni Lelli, hanno firmato ieri un Accordo di collaborazione per l’analisi dei processi produttivi e, in generale, dei settori economici connessi con la Green Economy, con particolare riferimento all’eco-innovazione, all’efficienza e al risparmio energetico, alle fonti rinnovabili, agli usi efficienti delle risorse, nonché al riciclo dei rifiuti e alla sostenibilità. 

CNEL e ENEA intendono valorizzare le rispettive competenze nei settori degli studi socio-politico-economici e della ricerca scientifica e tecnologica nell’intento di identificare un percorso comune nell’ambito della Green Economy, riconosciuta, nell’ambito della Conferenza Rio + 20 delle Nazioni Unite (giugno 2012), come la possibile soluzione alle molteplici crisi, prime fra tutti la crisi economica e la crisi climatica, che il mondo intero sta affrontando in questi anni. 

Le due Istituzioni collaboreranno sui temi connessi alla transizione verso un’economia caratterizzata da maggiore equità, inclusione sociale ed ecosostenibilità, per la quale si pone l’esigenza di coniugare la competitività e la sostenibilità all’interno del nostro sistema produttivo, promuovendo da una parte nuove filiere produttive green (come ad esempio la chimica verde, l’industria del riciclo, le fonti energetiche rinnovabili, l’efficienza energetica, ecc.) e dall’altra avviando processi di riconversione delle tradizionali filiere produttive nazionali (manifatturiera, siderurgica, turismo, ecc.). 

Questo passaggio richiede, anzitutto, uno sforzo congiunto di tutto il sistema Paese, ma soprattutto presuppone un profondo cambiamento verso nuovi sistemi di produzione e di consumo, basati su una gestione sostenibile delle risorse e una drastica riduzione delle emissioni e dei conseguenti impatti, che deve essere accompagnato da un altrettanto profondo cambiamento culturale e di stili di vita. 

CNEL ed ENEA si propongono come un punto di riferimento formativo per giovani laureati e dottorandi di ricerca italiani nell’ambito della Green Economy, inteso come settore fondamentale per rilanciare la competitività delle imprese italiane e l’occupazione e per superare l’attuale crisi economica. L’ENEA è una Agenzia che svolge attività nell’ambito della ricerca e dell’innovazione tecnologica, dell’efficienza energetica, delle fonti rinnovabili, di sistemi energetici innovativi e dei servizi avanzati nei settori dell'energia, della salute e della sicurezza, dell’ambiente e del clima.

L'ENEA svolge attività di ricerca di base, mission oriented e industriale avvalendosi di competenze ad ampio spettro e di impianti sperimentali, laboratori specializzati, strumentazioni avanzate; sviluppa nuove tecnologie e applicazioni avanzate; diffonde e trasferisce i risultati ottenuti favorendone la valorizzazione a fini produttivi; fornisce a soggetti pubblici e privati servizi ad alto contenuto tecnologico, studi, misure, prove e valutazioni; fornisce servizi di agenzia a supporto alle amministrazioni pubbliche, imprese pubbliche e private, e cittadini.

Fonte: ENEA

Google CAMP, presto il nuovo antivirus integrato nel browser Chrome


Google scende ufficialmente in campo nel mondo degli antivirus, presentando quella che dovrebbe essere una estensione del suo famoso browser Internet Chrome e dovrebbe chiamarsi CAMP, acronimo di Content Agnostic Malware Protection. Secondo quanto riferiscono da Google, questo antivirus dovrebbe bloccare fino al 99% dei numerosi virus e dei malware ai quali si è quotidianamente esposti quando si naviga in Rete.

Il funzionamento sarebbe possibile attraverso l’utilizzo di Chrome, uno dei prodotti di punta dell’azienda, nonché tra i browser più utilizzati dagli utenti di tutto il mondo. L’antivirus CAMP (PDF) dovrebbe funzionare come un normale antivirus per pc, in modo quindi silenzioso e non invasivo, proteggendo in particolar modo la navigazione. 

Infatti, uno degli elementi di distinzione rispetto ai più comuni software che proteggono dai virus è dato dal fatto di agire direttamente online. Detto in parole povere, con Google CAMP non c’è un software che scandaglia l’intero hard disk alla ricerca di qualche intrusione, ma semplicemente un’estensione che scandaglia i siti internet che si visitano e che ci informa di eventuali potenziali minacce. 

Sembra una banalità, visto che questo sistema di tracciamento dei siti pericolosi è utilizzato già da molto tempo da Microsoft per Internet Explorer, da Mozilla per Firefox e dalla stessa Google per Chrome. E non sembra una novità se si considera l’estensione di alcuni software antivirus, come AVG, che permettono di sapere, dalle pagine con i risultati di ricerca di Google, già in anticipo se il sito è attendibile oppure no.

Analisi dei file
Ma la differenza tra questi sistemi e CAMP starebbe proprio nella volontà di creare un database estremamente efficiente e più affidabile dei più comuni antivirus in circolazione. Un progetto ambizioso, ma possibile, considerando la capacità di Google di avere a disposizioni enormi quantità di dati, che possono essere combinati e incrociati per arrivare a formare un archivio immenso.

Questo meccanismo sarebbe, in ogni caso, affiancato da un motore di ricerca dei virus nel vero senso della parola: così facendo, il browser arriverebbe a scovare minacce nei siti e nei files scaricati, e laddove ce ne siano, chiederebbe al potente database come agire nei confronti di questi pericoli. Qualcosa di simile accade con Safe browsing di Google, capace di individuare le minacce statiche, ma che perde domini e sottodomini usuali nella distribuzione delle minacce informatiche.

Il nuovo sistema è basato sulla reputazione dei distributori di contenuti. Esso è strutturato come un client-server con un plug-in per il browser Chrome che analizza contenuti e hosting, così come la gestione della whitelist. Come è noto, la whitelist contiene le informazioni dei siti che offrono la massima sicurezza per l'utente, e la blacklist quelli con macchie sui loro record.

In quest'ultimo caso, CAMP esegue ispezioni complete di ciascuno dei file, procedendo a bloccare il sito, se ritenuto necessario. Secondo dei test fatti in laboratorio, questa nuova tecnologia di casa Google, che è stata presentata durante il 20° Annual Network & Distributed System Security Symposium di San Diego (NDSS), i risultati sarebbero molto incoraggianti.

Infatti, CAMP riuscirebbe a bloccare il 70% delle minacce con l’utilizzo della sola scansione Web, ma attivando le altre risorse online e sfruttando il database (a differenza di Microsoft SmartScreen che corre interamente in cloud), la percentuale arriva quasi a 100. È evidente che CAMP potrebbe alterare gli equilibri del settore, spodestando Microsoft Security Essentials che al momento risulta il maggiore utilizzato.


Fonte: Assodigitale