User Profile Classification: Demografia del Web

User Profile Classification: Demografia del Web
Sembra che Xerox abbia ideato un nuovo strumento per analizzare le caratteristiche demografiche di ciascun utente. Attraverso di esso sarà possibile individuare, con una certa precisione, il sesso e l’età del navigatore e, probabilmente, anche la sua appartenenza ad una certa classe sociale e, di conseguenza, la sua capacità di spesa.

Il brevetto è denominato “User Profile Classification By Web Usage Analysis”.

Il funzionamento dell’applicazione si basa sul un analisi comparativa di pattern di pagine/siti visitati dagli utenti e quelli contenuti in database che raccolgono le abitudini e le caratteristiche della navigazione di altri utenti di cui però è noto il background. L’applicazione puo essere implementata utilizzando hardware, software o una combinazione di entrambi. Attraverso di essa sarà possibile archiviare e tracciare le visite a pagine web di un numero definito di utenti che navigano a scopo di test. A questo punto il software sarà in grado di determinare dei “vettori baricentrici” (o vettori campione). Ottenuti i vettori campione sarà possibile estendere l’indagine all’utente comune: viene analizzata la sua navigazione, viene delineato il suo vettore e quindi messo a confronto con i vettori baricentrici di cui l’applicazione dispone. I vettori considerano, inoltre, quali variabili il numero di siti visitati, l’ordine di visita e la frequenza.

Attualmente il sistema, ancora in fase di test, è in grado di attestare con esattezza il sesso di un utente con una precisione del 75%, a patto di aver analizzato un numero sufficiente di pagine.
Se le promesse saranno mantenute questo comporterà una vera e propria rivoluzione soprattutto per i siti di Commercio Elettronico: pensate a cosa significhi poter individuare in pochi minuti la caratteristiche di un utente, riuscire a capire a che classe sociale appartiene e, soprattutto, a predire quanto sia disposto a spendere per un certo prodotto.
Forse funzionalità analoghe sono già ottenibili attraverso l’analisi della navigazione di utenti che hanno installato delle toolbar, ma, tutti sappiamo quanto è difficile convincere questi ultimi ad effettuare tale operazione.

Norz e NuovaTVP: parte la collaborazione

Norz e NuovaTVP: parte la collaborazione

Norz avvia una importante collaborazione con la popolare emittente digitale.
Questo rapporto vedrà le sue prime manifestazioni con la nascita del sito web www.nuovatvp.it e successivamente con la la promozione del portale sportivo TuttoCalciatori.Net con degli spot televisivi appositi. Inoltre è in fase di valutazione la realizzazione una trasmissione televisiva dedicata al calcio a cura della redazione di TuttoCalciatori.Net.
Oltre a questo Norz cura la promozione di NuovaTVP realizzando uno spot animato proiettato nelle sale cinematografiche locali.

Big M nuovamente sotto accuse

Big M nuovamente sotto accuse

Continuano i problemi legati ai brevetti software per Microsoft. Questa volta nel mirino c’è la tecnologia .Net nella sua ultima incarnazione. Vertical Computer Systems, un importante (ed agguerrito) ISP di FortWorth, Texas, ha richiesto a Big M di cessare la distribuzione delle ultime tecnologie .Net pena un immediato procedimento legale contro il colosso di Redmond.
Il fulcro della questione sta nell’utilizzo del linguaggio XML utilizzato nel framework .Net per creare una struttura basata su componenti per creare siti web. Pare che Vertical Computer Systems abbia brevettato in precedenza un sistema identico chiamato SiteFlash, e che quindi Microsoft stia effettivamente infrangendo il brevetto già esistente per un sistema finalizzato a generare siti web in un “arbitrary object framework”.
Se in caso di procedimento legale il tribunale darà ragione a Vertical Computer Systems, quella che oggi conosciamo come tecnologia .Net potrebbe subire profonde modificazioni o addirittura essere tempestivamente ritirata dal mercato.

L’articolo originale sul sito InfoWorld

Addio Froogle! Benvenuto Google Product Search!

Addio Froogle! Benvenuto Google Product Search!

Nel dicembre 2002 Google lanciò il suo attesissimo motore di ricerca per lo shopping. Si chiamava Froogle, una combinazione di “frugal” e “google”. Appena quattro anni dopo questo servizio di ricerca abbandona il buffo appellativo per un ben più descrittivo Google Product Search.

I cambiamenti non sono ancora così evidenti come il nome, cambiato in funzione di una maggior consapevolezza di nomi e brand da parte di Big G.

“Noi siamo una compagnia molto giovane, e io non penso che comprendiamo appieno le difficoltà di lanciare un nuovo brand” afferma Marissa Mayer, vice presidente della sezione “Search products and user experience” di Google inc.

“Io penso inoltre che sarebbe stato davvero difficile creare fidelizzazione nel cliente. Il servizio è decisamente solido tuttavia si comporterà anche meglio con un nome come ‘Google Product Search’ ” continua la Mayer.

Alla Google molta gente era dell’opinione che nonostante la bontà del servizio offerto, affiancato a sistemi di ricerca ad ampio raggio su immagini, pagine web, video, mappe e news non fosse facile per il pubblico capire il tipo di servizio dal semplice nome in quanto poco descrittivo ed un pò “ermetico”.

A dispetto del cambio di nome, Google Product Search non avrà un dominio proprio ne una homepage apposita. Resterà “incastrato” tra le caratteristiche aggiuntive, assieme alla ricerca immagini, video, news e mappe.
Tuttavia la Mayer non fa mistero del fatto che Google stia ipotizzando nuovi assetti negli alberi di navigazione dei propri servizi online.

Quì di seguito potete vedere come cambia l’assetto grafico del motore per gli acquisti di Big G.

I particolari della storia sul sito Searchengineland.com

File Sharing Monitor: come si cattura un downloader

File Sharing Monitor: come si cattura un downloader

Su torrentfreak.com un interessante articolo che descrive il metodo con cui vengono rilevati i download illegali sulle reti p2p.
Dopo alcuni incresciosi fatti di cronaca TorrentFreak ha messo le mani su un documento descrivente il metodo per sniffare i download illegali di una importante anti-piracy agency, la Logistep AG.
L’anonimo titolo “File Sharing Monitor” sembra più il nome di qualche accessorio utile all’utente p2p che di un sistema di sorveglianza da temere e rifuggire.
Basato su una versione modificata del noto software Shareaza, questo particolare client ha lo scopo di scandagliare le reti p2p alla ricerca di fonti che infrangono i copyright.
Il File Sharing Monitor al momento pattuglia le sole reti Gnutella e eDonkey e non è chiaro se gli utenti BitTorrent debbano temere eventuali incursioni del terribile software. Questo il funzionamento:

  1. FSM si connette alla rete p2p, effettua la ricerca per un contenuto protetto e registra gli indirizzi IP dove sono state trovate le fonti illegali.
  2. Effettua il download parziale del file dall’host sul quale è stata trovata la fonte per il contenuto ricercato.
  3. Il nome del file, la dimensione, l’indirizzo ip e altri dati come il protocollo p2p e l’applicazione oltre all’ora vengono memorizzati in un database nel caso che l’host consenta di iniziare il download nel punto precedente (l’inizio del download sembra che sia una condizione fondamentale per iniziare una qualche azione contro l’utente p2p)
  4. Successivamente il software FSM effettua una WHOIS query per ottenere le informazioni sull’ISP dell’utente p2p e viene automaticamente inoltrata una “infrigement letter” all’ISP stesso.

A questo sistema viene attribuita una presunta infallibilità e l’assoluta impugnabilità al cospetto di una giudice per punire hi infrange i diritti sui contenuti protetti. Il dubbio che l’indirizzo ip possa considerarsi un dato sufficientemente attendibile per riferirsi a un trasgressore resta un punto delicato.

Per i più curiosi (e i più preoccupati), il documento sul funzionamento di FSM in formato PDF, in relazione a una contestazione fatta a un downloader del noto gioco Pinball 3D

Internet : ricominciare da zero

Internet : ricominciare da zero

Slogan apocalittico o idea folle che possa sembrare è il pensiero che va prendendo piede tra alcuni atenei americani e il governo federale statiunitense.

L’idea, a tratti assurda, è quella di creare una situazione “nuova e pulita” dalla quale ricostruire tutto da capo dando la priorità a necessità come la sicurezza, la mobilità e la pulizia dei contenuti, fattori che hanno assunto drammatica importanza da quando, nel 1969 il professor Leonard Kleinrock supervisionò la prima trasmissione dati in rete tra due computer.

“Internet funziona bene in molte situazioni ma è stata disegnata per scopi assolutamente differenti da quelli attuali” afferma Dipankar Raychaudhuri, professore presso la Rutger University, “Ed è un miracolo che continui a funzionare così bene al giorno d’oggi” continua ad enfatizzare con tono polemico.

I nuovi imperativi nel riprogettare internet imporranno ad ingegneri e tecnici di affrancare l’utenza da connessioni lente, necessità di server poderosi e costosi supporti di storage. I ricercatori dicono che è ormai ora di ripensare tutta l’architettura di internet in modo da rimpiazzare tutti i dispositivi attuali e riscrivere i software di supporto alla trasmissione dati per meglio supportare il traffico presunto prospettato per gli anni a venire.

Persino Vinton Cerf, uno dei padri fondatori della rete delle reti e cosviluppatore dei protocolli fondamentali per la trasmissione dati afferma che la prova è stata generalmente benefica nel constatare che la tecnologia attuale non soddisfa comunque le necessità attuali.


Per chi è ferrato in lingua inglese è interessante consultare l’articolo su yahoo dal quale è tratto questo post. Caldamente consigliato.

Apple, Opera e Mozilla domandano a gran voce HTML5

Apple, Opera e Mozilla domandano a gran voce HTML5

In genere i produttori di browser internet si trovano a doversi adeguare agli standard imposti dal W3C, tuttavia, quando il noto consorzio vota le evoluzioni dei suoi standard con eccessiva lentezza si creano situazioni opposte.
In una lettera, tre primedonne dell’information technology, esortano il W3C ad effettuare un balzo generazionale nelle sue celebri specifiche di base per i browser domandando l’adesione in toto allo standard HTML5 come punto di partenza e requisito minimo per i nuovi browser internet e siti web.

In particolare, nella comunicazione sono esposte le seguenti proposte:

  • Il W3C HTML Working Group adotti il WHAT (Web Hypertext Application Technology Working Group), team che ha dato maggior impulso allo sviluppo delle specifiche HTML5 per far evolvere e rimpiazzare le caratteristiche obsolete degli standard HTML e XHTML, come organo di riferimento per lo sviluppo dei successivi standard per l’HTML
  • La prossima release delle specifiche HTML del W3C sia ufficialmente denominata “HTML 5”
  • Che Ian Hickson sia nominato ufficialmente editore per le specifiche HTML 5 al fine di conservare la presenza del WHAT Working Group in seno all’organizzazione W3C

Se il consorzio si troverà in accordo con Apple, Opera e Mozilla, queste accorderanno di non applicare un copyright esclusivo sulle specifiche dell’HTML di prossima generazione.

I dettagli sulla comunicazione a questo indirizzo http://lists.w3.org/Archives/Public/public-html/2007Apr/0429.html

Vitaminizziamo il p2p con SET!

Vitaminizziamo il p2p con SET!

Nel tormentato e controverso scenario del file sharing fa la sua comparsa questo nuovo sistema di ricerca di contenuti su reti peer-to-peer che promette velocità di download fino a cinque volte maggiori.
Non si tratta di un protocollo inedito bensì di un algoritmo che si applicherà alle preesistenti reti eDonkey e BitTorrent nei client di prossima uscita.

Gli autori di questa autentica manna dal cielo sono Michael Kaminsky dei laboratori Intel di Pittsburgh e David G. Andersen, docente in informatica presso l’istituto Carnegie Mellon.
La nuova creatura si chiama SET, acronimo di Similarity-Enhanced Transfer e, come suggerisce il nome, basa la sua potenza sul confronto di similitudini tra fonti di files “leggermente diverse”.

Grazie a SET, le fonti per un download aumentano considerevolmente, accrescendo di conseguenza la velocità complessiva del download. In aggiunta a questo, il carico dell’upload viene ulteriormente diviso tra i molteplici client in rete col risultato che l’utente “downloader” vede la banda di download considerevolmente maggiorata.

Gli studiosi sono partiti dalla considerazione che molto spesso i materiali condivisi sulle reti P2P differiscono solo per alcuni dettagli, come il nome del file o alcuni tag che indicano l’autore del brano. Anche i pacchetti software di differenti versioni spesso si differenziano soltanto per pochi byte: perchè dunque non sfruttare le parti in comune per aumentarne la disponibilità?

Grazie a questo sistema è possibile sfruttare i frammenti simili di due file che presentano lo stesso video con audio differenti (come i film in lingua originale e doppiati), allargando la base di potenziali fonti a cui attingere. Le stime preliminari parlano di un incremento attorno al 30 per cento per il download dei video e di oltre il 70 per un file MP3: i test si sono svolti con client modificati sulle attuali reti P2P.

Il nuovo protocollo funziona in maniera molto simile a BitTorrent: l’archivio originale viene suddiviso in tanti piccoli frammenti, 64.000 da 16 kilobyte nel caso di un file da 1 gigabyte. Quando viene fatta richiesta per ciascuno di essi, il sistema inizia la ricerca di un frammento con caratteristiche simili.

Per questa operazione viene impiegata una tecnica detta handprinting, attraverso la creazione di un campione che viene confrontato con il contenuto del materiale che mostra qualche somiglianza con quello cercato: qualcosa di molto simile a quanto accade nelle ricerche per raggruppamento (clustering search) o negli algoritmi per l’identificazione della posta spazzatura (SPAM). Se la verifica va a buon fine, il frammento viene scaricato ed in seguito assemblato agli altri per ricostruire il file originale.

SET è stato pensato per essere donato alla comunità: i suoi creatori si augurano che possa venire presto implementato nelle attuali reti P2P e nei nuovi servizi per la distribuzione del materiale online. Nelle intenzioni dei due ricercatori ci sarebbe il tentativo di migliorare lo scambio delle pubblicazioni accademiche.

Nonostante gli ottimi propositi dei due geniali inventori è facile immaginare che questo balzo in avanti nella tecnica dello scambio files sia salutata con estremo piacere dagli operatori del file-sharing illegale.

Maggiori informazioni sul sito EurekAlert

ShareMonkey: per un p2p disciplinato

ShareMonkey: per un p2p disciplinato

Si chiama così il nuovo software nato per confrontare i download dalle reti peer-to-peer con i rispettivi prodotti originali.
ShareMonkey è un software per Windows, fornito con un plugin per il noto programma Shareaza (un client p2p funzionante con svariati protocolli per il trasferimento di files).
ShareMonkey permette, con un semplice click del tasto destro del mouse, di scoprire da dove viene un file che si intende scaricare, nell’ottica di non infrangere alcun diritto di copyright legato al file in questione.
ShareMonkey è un servizio orientato a quell’utenza del p2p che è propensa a scaricare files nella modalità “try before you buy” cioè “prova e se ti piace acquisti”.
Un’utenza consapevole ed educata al rispetto dei diritti d’autore dunque. Dalla diffusione di questo software sarà facile capire se l’evoluzione dei mezzi tecnici va di pari passo con l’evoluzione del “savoir faire” in rete. Chi vivrà vedrà.

Quando hacker si traduce imprenditore

Quando hacker si traduce imprenditore

Scusate il titolo demenziale tuttavia la notizia ha dell’incredibile. Da quanto risulta, diverse hackers-gang si sono messe in affari realizzando siti web nei quali si offrono vantaggiosi abbonamenti a malware per le esigenze più disparate.

Il sito offre exploits da installare in siti web “maliziosi” che i relativi webmaster possono usare per infettare i propri visitatori con spyware e trojans.

Pare addirittura che il modello di business criminale in questione sia così efficace che all’acquirente viene garantito un introito di almeno 50 euro settimanali se il traffico sul suo sito web viene giudicato adeguato. La cosa rende sfacciatamente palese come creare malware oggi sia una professione lucrativa e con margini economici relativamente ampi.

Oltre a ciò emerge altro: a differenza dei virus-writer del passato, i quali tendevano a scrivere codice destinato ad una bassissima distribuzione tra untori segreti per iniziare l’epidemia, queste moderne gang del crimine informatico sono fautrici di un nuovo modello distributivo del malware, più vicino ad una forma di commercio serio e più organizzato nell’analisi e lo sviluppo degli exploit mettendo in gioco una professionalità anni luce più avanzata rispetto passato.

Così per 20 dollari al mese queste associazioni del crimine informatico (le quali si vocifera risiedano in paesi dove non esiste l’estradizione) vendono delle suite complete per exploit che i neospammers possono usare per infiltrarsi nelle reti informatiche o rubare dati sensibili dai computer degli utenti.

Oltre a tutto ciò, la metodologia di lavoro dell’hacking moderno si è affinata al limite del soddisfare un sistema qualità. A seconda delle vulnerabilità da colpire si adottano approcci differenti per sviluppare il codice malizioso. Più frequentemente si osservano le uscite mensili di patch da parte di produttori software come Microsoft (ovviamente il più bersagliato e redditizio da colpire), le quali vengono sottoposte a processi di reversal-engineering per smontarne il codice e determinare le vulnerabilità alle quali queste andrebbero a rimediare. In questo modo Big M va suo malgrado ad aggiornare questi piccoli imprenditori del crimine informatico.

Su Computer World l’articolo completo in lingua inglese