http://www.vegpyramid.info    

martedì 25 dicembre 2007

Perchè Gli Operatori UMTS Devono Stare Lontani Dal WiMAX

Per il TAR e AGCOM innovazione e concorrenza non sono criteri importanti per l'assegnazione delle licenze


Molti cittadini ed utenti ancora non hanno ben capito perchè il bando di assegnazione delle frequenze WiMAX, in corso in Italia, sia così importante per tutti. Anche per loro. Ecco una spiegazione semplice e chiara di quanto sta succendendo.

WiMAX, cos'è?

Wikipedia riporta;

"Il WiMAX (acronimo di Worldwide Interoperability for Microwave Access) è una tecnologia che consente l'accesso a reti di telecomunicazioni a banda larga e senza fili ...

WiMAX ha un potenziale tale da consentire di allargare a molti milioni gli accessi ad Internet senza fili, proprio per il basso costo e la relativa facilità di implementazione della struttura: la copertura senza fili di WiMAX si misura in km², mentre la copertura Wi-Fi viene misurata in decine di m². Per questo motivo è una tecnologia che dovrebbe ridurre il digital divide. Le stazioni-base WiMAX dovrebbero riuscire a coprire intere aree metropolitane... "

In poche parole WiMAX è una tecnologia in grado di offrire connettività internet wireless ad intere città ed è:

  • economico
  • sicuro
  • flessibile
  • un eccellente evoluzione (più economica) delle teconologie mobili UMTS, HSDPA ecc.

Purtroppo, in Italia, siamo ancora all'assegnazione delle licenze ed è in corso un bando di gara regolato da AGCOM che stabilirà quali imprese potranno offrire questa tecnologia a imprese e privati. Ma diamo uno sguardo all'estero.

In Francia le licenze sono state assegnate già da un paio d'anni e il colosso France Telecom è uscita clamorosamente sconfitto dalla gara. Riporto da supercom.it:

"Tre i criteri determinanti valutati dall’Arcep per l’assegnazione delle licenze: la collaborazione allo sviluppo territoriale dei servizi a banda larga, l'attitudine del progetto a favorire la concorrenza e il montante delle tasse che il candidato è disposto a pagare. Molti i fattori che hanno pesato sulla sconfitta di France Télécom che, secondo uno dei membri dell’Authority, “ha sistematicamente proposto delle cifre di molto inferiori rispetto ai concorrenti”. Per l’Ile-de-France, ad esempio, ha offerto 7,5 milioni di euro contro i 47 di Bolloré. L’operatore storico (France Telecom nda) ha dimostrato inoltre poca propensione verso lo sviluppo della concorrenza, non formulando chiaramente “alcun impegno sulla messa a disposizione delle frequenze non utilizzate”.

Spiegando in parole povere, in Francia hanno impedito che le manone degli operatori UMTS si poggiassero anche sul WiMAX. Perchè?

Perchè il WiMAX non deve cadere in mano agli operatori UMTS/HSDPA

E' semplice: quando mi collego in GPRS (nota bene, GPRS) per leggere la email il mio operatore mi addebità un euro, solo per la connessione. Gli altri operatori non sono poi così diversi, e le offerte che sembrano flat spesso sono al limite della pubblicità ingannevole.

I tre operatori che in italia detengono le licenze UMTS e che predominano il panorama della connettività mobile impongono prezzi assurdi per servizi ridicoli.

3 Italia, Telecom Italia, Tim e Wind si sono presentate al bando per le licenze WiMAX. Che succederà se proprio coloro che impongono prezzi proibitivi per servizi indecenti si aggiudicheranno le licenze?

WiMAXdovrebbe essere:

  • Un serivizio per le pubbliche amministrazioni
  • Internet offerto come servizio necessario, a basso costo o gratuito
  • la fine del digital divide
  • teleassistenza per anziani
  • uno strumento di telesanità
  • telefonia a costo zero

e chi più ne ha più ne metta. WiMAX potrebbe essere gestito dai comuni e farlo diventare un servizio pubblico come l'acqua.

L'assegnazione delle licenze WiMAX in Italia

L'operatore tedesco MGM ha recentemente presentato un ricorso al TAR a causa della presenza di operatori UMTS nel bando stesso ed è stato supportato da Altroconsumo e dall' Associazione Anti Digital Divide. Riporto da quest'ultima:

"Nel regolamento non è prevista alcuna priorità per la copertura delle zone non raggiunte dalla banda larga e la mancata esclusione di Telecom Italia e degli operatori UMTS, permetterà a questi soggetti di monopolizzare anche il mercato del Wimax."

Il ricorso al TAR è stato respinto.

Il motivo per cui il Wimax non deve cadere nelle mani di 3 italia, Telecom, Wind e TIN è molto semplice: perchè sono stati i concessionari delle frequenze UMTS negli ultimi anni e quello che hanno saputo offrire è stato:

  • guardare le fiction sul telefonino (oops... videofonino, scusami)
  • videotelefonarsi a scatti

Là dove avrebbero dovuto offrire innovazione e competitività (internet mobile per esempio) hanno offerto servizi ridicoli venduti a prezzi esorbitanti. Il WiMAX non deve cadere nelle mani degli operatori UMTS.

Diffondi questo articolo, gli articoli in esso linkati, tutti quelli che trovi per la rete. Firma la petizione sul blog di Beppe Grillo e segui le evoluzioni della vicenda su technorati .

Auguri 2007/2008


Auguro a tutti i visitatori del mio blog un felice natale e tante belle realizzazioni per il 2008 ...
Comunque sia andata, W il 2007, perchè le cose belle del futuro appartengono quasi sempre, in certa misura, dal passato più recente !!
Ric

lunedì 24 dicembre 2007

Ingegneria sociale e sicurezza informatica

Un interessantissimo articolo di un esperto in materia di ingegneria sociale e sicurezza informatica:
Ivan Scalise è fra i maggiori esperti italiani di ingegneria sociale e protezione di dati sensibili a livello aziendale. Voce autorevole fra le non molte davvero credibili nel panorama nazionale, ha accettato di rilasciare un’approfondita intervista in cui cercheremo di analizzare, con la massima semplicità, particolari situazioni che potrebbero sfiorare, o colpire direttamente, ciascuno di noi. Proveremo inoltre ad offrire un quadro generale di molteplici aspetti del mondo dell’Information Technology, della sicurezza informatica, della protezione della nostra privacy.

Quanto davvero siamo al sicuro mentre navighiamo su internet, quando parliamo al telefono, quando camminiamo per strada? Di cosa ci si dovrebbe realmente preoccupare, e quali aspetti invece sarebbero da considerarsi come decisamente sopravvalutati? Risulterebbe infine più pericolosa una precisa, e magari conosciuta, minaccia informatica, oppure un abile e preparato interlocutore in grado di carpire informazioni anche solamente grazie ad una banale conversazione? Proveremo a fornire una valida risposta a tutte queste domande.

Per conoscere al meglio di cosa si occupi esattamente Ivan Scalise, consigliamo ovviamente un'accurata visita al sito ufficiale: Ivan Scalise - The Unconventional Security Specialist.

Veniamo a noi, Ivan: quindi, ingegneria sociale, in spiccioli l'arte di analizzare e scardinare le debolezze umane prima ancora di quelle tecnologiche. E' incredibilmente facile riuscire a farsi svelare volontariamente i dati personali e sensibili di molti soggetti semplicemente tentando di vendere un'enciclopedia per strada, o tramite un'intervista telefonica. A livello aziendale siamo messi un po' meglio? Vi è consapevolezza degli effettivi rischi?

Nella gente, cosiddetta comune, manca una cultura della privacy, poiché la vocina che si chiede: “ma che fine faranno i miei dati?” c'è, però la domanda, vuoi per la fretta, vuoi per il "tanto non importa", viene accantonata a favore dello zuccherino che ti offre l'interlocutore. Nelle aziende noi troviamo la stessa gente che fa la raccolta punti al supermercato, o che immette i propri dati personali su un sito per avere in cambio un gadget. Abbiamo quindi persone che sono portate a dare qualcosa, che considerano poco importante, in cambio di qualcos'altro, che risulta utile o simpatico. In genere le policy aziendali seguono degli standard che mettono in guardia il dipendente e che gli impongono di non dare per nessuna ragione alcune informazioni. Ma gli standard sono solo un qualcosa di prefissato e lineare che suggerisce, senza però andare a fondo, quali sono i particolari da non rivelare. Una policy potrà dirmi di non rivelare la password, ma non potrà mai elencare tutti i modi che un malintenzionato potrà usare per arrivare a quella password senza che me ne accorga. Quindi possiamo affermare che: sì, siamo messi un po' meglio, manca però la formazione. Dalla receptionist al presidente, in un'azienda, nessuno ha chiaro un concetto molto semplice: non è una questione di intelligenza.

Quando parliamo di attacchi di ingegneria sociale, parliamo di debolezze umane, come hai giustamente detto, e non di lesa maestà all'intelligenza. Tutti siamo più o meno curiosi, sentimentali, cordiali, educati, pigri, avventati ecc... La soluzione sta nel capire come e quando essere tutto ciò e accettare il fatto di essere vulnerabili a priori. Gli esperti di security sono i primi a inserire nel proprio pc oggetti di dubbia provenienza, come una chiavetta usb simpatica/strana o un cd "forse dimenticato da qualche dipendente". Eppure loro conoscono l'ingegneria sociale, ne hanno letto, si sono appassionati, magari hanno seguito anche uno dei tanti corsi che ne parlava... Ma basta un momento, una singola distrazione o un eccesso di superbia ("tanto io e la mia configurazione siamo a prova di bomba”) e puff hai aperto una falla senza accorgertene.
Il fattore umano è come sempre l'anello debole della catena. Non sarebbe preferibile investire prima sulle persone e poi sulle tecnologie?

In effetti, fino alla contemporanea era dell'informazione e dell'informatizzazione, chi conduceva un'impresa si curava più della preparazione e delle capacità dei suoi dipendenti piuttosto che degli strumenti tecnologici che usava. Poi sono arrivate le prime epidemie di virus, il pericolo hacker, la caduta ingloriosa di tanti colossi come Yahoo o eBay, e le aziende sono corse subito ai ripari, affidando in toto la loro sicurezza ai Golia dell'informatica. Questi, ovviamente, guadagnano vendendo il proprio hardware e le proprie soluzioni software, quindi la cultura della sicurezza si è basata sui prodotti da acquistare e sulla conoscenza che i dipendenti avevano dei prodotti commercializzati. Non avrebbero mai potuto dirti che gran parte della security dipende da chi gestisce i sistemi (aldilà di quello utilizzato) perché altrimenti la corsa ai continui aggiornamenti si sarebbe fermata in fretta e non avrebbero più avuto senso frasi come: "il nostro è il software più sicuro al mondo" o "progettiamo soluzioni tecnologiche per la tua sicurezza". Purtroppo, da allora, le cose non sono cambiate granché. I Golia hanno comprato/corrotto i Davide con le partnership, le certificazioni, i premi, mentre, allo stesso tempo, distribuivano e facevano approvare best practice ad hoc o influivano sui media in modo da imbavagliare chi facesse notare le enormi idiozie che andavano predicando.

Ora capirai che se una certa cultura mi fa intendere che i sistemi sono unici e si proteggono da sé, io non mi curo molto del dipendente che piazzo su quel sistema o attorno ad esso. Da qui sorge la pessima abitudine di non ricercare continuamente figure eccelse e di non valorizzare il proprio personale.
Molti dirigenti preferiscono chi sa fare un po' di tutto, piuttosto che un team di specialisti. Preferiscono i dipendenti che costano poco, magari anche riciclabili tramite contratti a progetto astratti o in outsourcing, piuttosto che dipendenti di qualità con cui instaurare un forte legame d'appartenenza. L'ambiente, l'aria che si respira in un'azienda è una questione che andrebbe trattata seriamente, mentre molti ci giocano o ci speculano sopra in maniera superficiale. Sono tanti i dipendenti ed i dirigenti che si sentono minacciati a causa di un clima d'odio e/o d'invidia che si crea attorno a loro. La sicurezza e il destino stesso di un'impresa, dipendono dalla validità dei dipendenti e da quanto questi vogliono bene a quell'impresa, da quanto si sentono confortati e a loro agio. Alcune multinazionali straniere curano questi aspetti, mentre noi ce ne infischiamo parecchio. Il bello è che sono aspetti che, le ditte straniere, curano anche nelle filiali italiane e spesso gente come me viene chiamata proprio a verificare questo aspetto. In pratica è come se mi dicessero: "passa qualche giorno nella filiale X e guarda se stanno amministrando bene" ... "guarda se il nostro incaricato italiano cura i rapporti in modo adeguato" e in genere dopo la mia visita gli affiancano qualcuno proveniente dalla sede centrale. Oggi sembra che manager ed imprenditori abbiano dimenticato l'importanza dei rapporti interpersonali e continuano a gettar soldi sull'ultima placebo security (come le chiamo io) che gli propone il vendor o trasformano la sede in una centrale biometrica. Così, mentre si sentiranno al sicuro, protetti dalle macchine, continuerà ad esserci un piccolo dipendente, con un piccolo contratto, con una grande voglia di fargliela pagare favorendo una concorrente.
Il panorama aziendale italiano, con particolare riferimento a Società che interagiscono direttamente con il pubblico, quindi istituti bancari, assicurazioni, semplici uffici comunali, potrebbe essere considerato mediamente sicuro ed organizzato, o sono ancora troppe le cose che non vanno al meglio?

La sicurezza di un impero parte dal basso e, nelle aziende di qualsiasi tipo e grandezza, il basso è sempre il luogo più scoperto e vulnerabile. Come spiegato poc'anzi, c'è una scarsa attenzione verso il personale, e gli stessi metodi di assunzione paiono indisciplinati. In tutti i settori si sono diffusi maree di lavoratori temporanei e centinaia di piccole s.r.l. che, se interpellate, propongono stock di lavoratori subito pronti ad un nuovo impiego e selezionati direttamente dalle stesse s.r.l. Quindi abbiamo figure come il sistemista-programmatore-webmaster o la maestra-centralinista-designer che lavorano a progetti a cui non dovrebbero nemmeno avvicinarsi o che un mese lavorano all'impresa X e il mese dopo lavorano per la diretta concorrente. Come se non bastasse, c'è anche chi si serve di apprendisti prestati dalla Vattelapesca s.r.l. Cioè gente che segue dei corsi di Office, di Linux, di Quelchevuoitu e fa apprendistato in grandi aziende o in amministrazioni pubbliche.
Ritroviamo apprendisti e lavoratori temporanei persino nelle sale di monitoraggio delle sedi bancarie. Eh si, hai capito bene, la sicurezza del tuo conto in banca e delle tue transazioni non dipendono da un super esperto col mantello rosso, ma da un ragazzo un po' arruffato che, sbattuto qua e là da anni, ora si ritrova in quella posizione per qualche mese. E non parliamo poi di appalti, subappalti e raccomandazioni (referenze, pardon) varie presenti nel settore pubblico. O, ancora, dei messi che portano qua e là documenti riservatissimi, magari delle procure, come ad esempio i fax che comunicano trasmissioni di tabulati telefonici o informazioni sulle indagini in corso. O ancora dei call-center in affitto, che oltre a rappresentare una facile via, agli occhi di un esterno, per guadagnarsi l'accesso diretto a database riservati, sono una miniera di informazioni a disposizione di ragazzi che guadagnano meno di 600 euro al mese. Se tu avessi un accesso privilegiato ad un database e se qualcuno ti sganciasse 50 euro ad informazione, tenendo conto che sei un precario che fa i salti mortali tra affitto e bollette, non li accetteresti?

Qualcuno sa spiegarmi dove sta la sicurezza quando si adottano questi metodi? Come può una persona insoddisfatta, o assunta temporaneamente, o prestata, soddisfare quei requisiti che servono a non turbare i fragili equilibri della sicurezza interna all'azienda? Allo stato attuale, è possibile violare una qualsiasi azienda, pubblica o privata, italiana, in maniera più o meno semplice, ma pur sempre semplice. Questo vuol dire che nessuno dei dati dei lettori è potenzialmente al sicuro. Il mio non è sterile allarmismo, anche perché alla fine si campa lo stesso, ma un invito a richiedere una maggiore sicurezza alle vostre banche, ai vostri comuni, ai vostri ospedali ecc... Bisognerebbe interessarsi ed essere informati, perché i servizi vengono pagati da tutti noi, quindi il minimo che ci si aspetta è che siano efficienti, sicuri e gestiti da personale all'altezza del proprio compito.
Il cyber crime, in tutti i suoi molteplici aspetti, può essere ritenuto il business criminale più in ascesa del momento e con i più elevati margini di futura diffusione?

La diffusione dei crimini perpetuati attraverso la rete si basa su una serie di fattori:

1. Il numero sempre crescente di navigatori novizi, quindi l'aumento delle potenziali vittime o vettori.
2. Il crescente bisogno di far soldi in qualche modo e subito.
3. La diffusione del know-how tecnico, anche di livello medio-alto, preconfezionato.
4. L'estrema facilità con cui è possibile formare gruppi e reclutare nuovi adepti da plasmare secondo le proprie esigenze.
5. La radicata illusione di non poter essere scoperti.
6. L'assenza di atti violenti.

Quindi diciamo che i fattori sono gli stessi che accomunano tante altre tipologie di crimini, con la differenza che un cyber criminale può riuscire a colpire centinaia di migliaia di sistemi grazie ad un unico fendente, oppure rubare qualche migliaio di numeri e codici di carte di credito in meno di un'ora. In più ha uno scudo psicologico, quella barriera che si chiama monitor, barriera che gli fa credere di non essere rintracciabile (ovviamente anche grazie ad altre precauzioni) e che quindi lo sprona a continuare fino a quando egli non viene beccato (se operano nello stesso Stato, vengono beccati sempre).
Poi c'è il mercato nero del malware, che penso debba essere distinto tra quello che appare sui giornali, in parte alimentato da alcuni programmatori di antivirus (non ho detto aziende), con prezzi per tutte le tasche, e quello più nascosto che alimenta il sottobosco dello spionaggio industriale, governativo e terroristico. Ed è proprio quest'ultimo che meriterebbe una maggiore attenzione, visto che non è solo mercato nero ma sconfina in una vera e propria criminalità organizzata, diffusa tramite celle operanti in Paesi diversi, con tanto di ricatti, estorsioni, riciclaggio, spionaggio, traffici illegali e via dicendo. Entrambi i business crescono e continueranno a crescere in maniera esponenziale, non c'è un unico farmaco per bloccare tutti i mali, poiché tra le motivazioni c'è anche quel senso di malessere diffuso che coinvolge chi criminale non è o chi non si sente tale. Può sembrare una visione pessimistica, lo so, ma ho semplicemente detto che il cyber crime non può cessare di esistere, cosa diversa dal dire che non ci si possa proteggere adeguatamente. Perché proteggersi adeguatamente è possibile, l'importante è capire da chi.

Il criminale informatico è in certi casi più preparato di chi sarebbe preposto a dargli la caccia, o si tratta semplicemente di una forma di sottovalutazione del problema da parte di chi dovrebbe vigilare?
Né l'uno, né l'altro. La preparazione della maggior parte dei criminali informatici oggi è abbastanza carente, perché la voglia di apprendere, presente fino ad un decennio fa, ha lasciato il posto alla voglia di strafare, la voglia di agire subito. Quindi in questi anni, per la prima volta, gli informatici col distintivo e gli informatici al soldo delle corporate sono in grado di contrastare agevolmente quelli con la bandana. Per esempio, conosco forenser ed ethical (ma sarebbe meglio dire legal, poiché di ethical non c'è nulla... uhmm spesso c'è anche poco di legal, ad essere pignoli), mediocri, che riescono agevolmente a rintracciare quei pirati che si rendono protagonisti di atti vandalici, di truffe online o di piccole azioni di spionaggio.

Le difficoltà delle Forze dell'Ordine sono fondamentalmente due: essere in minoranza ed avere dei limiti investigativi. Difatti i casi di crimini informatici sono sempre di più, mentre i membri dei nuclei destinati a combatterli sono un numero molto ridotto. Inoltre l'organizzarsi attraverso cellule presenti in più nazioni consente di disseminare le prove. Per cui il cyber poliziotto non si trova più di fronte al pirata di Milano che attacca i server di un'azienda di Palermo, ma ha a che fare con una figura che dall'Italia invia l'ordine alla cellula in Estonia di attaccare un sito americano i cui server si trovano in Tunisia. Capirai che tra rogatorie internazionali e mancanze di permessi in quei Paesi che non vedono la pirateria informatica come un crimine, passano mesi e le tracce cominciano inesorabilmente a dissolversi. Le Forze dell'Ordine dovrebbero essere messe in condizione di poter fare degli interventi lampo in modo che queste tracce non facciano in tempo a dissolversi. Allo stesso tempo però non si può proteggere la privacy facendola violare da uno stato di polizia.

E' troppo semplice poter accedere a qualsiasi dato e poter controllare tutto di tutti a priori o per ogni singolo sospetto. La vita privata dei cittadini si chiama così proprio perché privata e dei cittadini. Quindi penso che ogni singolo provvedimento intrapreso per proteggerla, debba essere vagliato e approvato dal cittadino stesso. Anche perché il criminale sa perfettamente come raggirare questo tipo di controlli e si finisce per spiare solo persone (e aziende) oneste. Per tornare alla domanda, le nostre autorità necessitano di attrezzature costantemente aggiornate, un miglior addestramento ed una parziale riorganizzazione interna. Poi, certo, se iniziassero a chiudere un occhio sulle ragazzate per concentrarsi meglio sui criminali veri, sarebbe già un bel passo in avanti, per non dire balzo.

Nano-filamenti di silicio per gli anodi delle batterie Li-Ion

“Un gruppo di ricercatori presso la Stanford University ha trovato un metodo per realizzare batterie agli ioni di litio con anodo costituito da filamenti di silicio”
Presso l'università di Standford un gruppo di ricercatori guidati dal professore Yi Cui è riuscito a realizzare una batteria agli ioni di litio impiegando nanofilamenti di silicio per la costruzione dell'anodo. In questo modo, secondo quanto si apprende, la batteria è in grado di conservare dieci volte la carica elettrica rispetto a quella di batterie simili di pari dimensioni.

L'anodo è stato realizzato facendo crescere dei filamenti di silicio su un substrato di acciaio inossidabile. "Si tratta di uno sviluppo rivoluzionario" ha dichiarato Cui, spiegando che la quantità di energia che può essere stoccata dipende dal quantitativo di litio che può essere conservato nell'anodo. L'anodo di queste batterie è normalmente realizzato in carbonio, che ha una capacità di stoccaggio inferiore rispetto a quella del silicio.

Il silicio presente nella batteria, rigonfiandosi, assorbe gli atomi di litio con carica positiva e si assottigliano quando li rilasciano, ovvero quando la corrente deve essere utilizzata. Questo ciclo di espansione-contrazione causano di norma una rapida degradazione del silicio, compromettendo così il ciclo della batteria.

L'impiego di silicio per la realizzazione dell'anodo nelle batterie agli ioni di litio è già stato sperimentato in occasione di altri progetti che tuttavia non hanno raggiunto il successo sperato: secondo i ricercatori della Stanford University la soluzione dell'empasse è rappresentata dalla forma impiegata per la realizzazione della struttura in silicio.

I nanofilamenti di silicio utilizzati per la realizzazione di queste batterie sono delle dimensioni di un millesimo dello spessore di un foglio di carta e, gonfiandosi fino a quattro volte tanto rispetto le loro dimensioni standard possono inglobare litio e rilasciarlo senza compromettere il ciclo della batteria.

Secondo i ricercatori si tratta di una tecnica che può rapidamente arrivare in fase di produzione per essere immessa altrettanto rapidamente sul mercato. Lo stesso Cui sta inoltre valutando la possibilità di mettere in piedi un'azienda che si occupi della produzione di questo tipo di batterie.
Fonte: Stanford News

Samba ottiene le specifiche dei protocolli di Microsoft

“Il progetto Samba ha finalmente ottenuto l'accesso alle specifiche dei protocolli di rete utilizzati da Windows. A Microsoft verrà pagata una tantum di 10'000 euro per la licenza dei brevetti sui protocolli in questione”


Finalmente, dopo anni di controversie e disaccordi con Microsoft, Samba ha ottenuto l'accesso alle specifiche dei protocolli di rete utilizzati da Windows. La Protocol Freedom Information Foundation (PFIF), un'organizzazione non-profit creata dal Software Freedom Law Center, ha da poco siglato un accordo per ottenere la documentazione e le specifiche tecniche necessarie al progetto Samba per essere pienamente compatibile ed interoperabile con la famiglia di prodotti Microsoft Windows.


Microsoft è stata obbligata a rendere disponibile queste informazioni a seguito di una decisione della Commissione Europea, nell'ambito dell'inchiesta antitrust che vedeva la società di Redmond imputata per abuso di posizione dominante, risalente al 23 Marzo 2004. Microsoft era ricorsa in appello, ma la condanna è stata riconfermata il 17 Settembre di quest'anno.


Secondo quanto riportato nell'accordo siglato da PFIF, per ottenere le specifiche la società pagherà a Microsoft una tantum di 10'000 euro per la licenza, in un'unica soluzione.

Andrew Tridgell, creatore di Samba, ha dichiarato:
"siamo felici di poter avere accesso a tutte le informazioni tecniche necessarie per continuare lo sviluppo di Samba come progetto libero. Sebbene siamo in disappunto con la decisione di non prendere provvedimenti riguardo alcuni brevetti sui protocolli, è stato un grande successo sia per la Commissione Europea, sia per l'applicazione delle norme antitrust in Europa. L'accordo ci consente di mantenere Samba aggiornato e al passo con i cambiamenti di Windows, e peraltro aiuta anche altri progetti di software libero che interoperano con Windows".


Riguardo l'accordo, Microsoft ha lasciato dichiarazioni in maniera più congeniale: Sam Ramji, direttore del reparto Platform & Technology Strategy di Microsoft, ha voluto enfatizzare la recente cooperazione tra Samba e Microsoft, facendo notare anche come Microsoft abbia donato ai membri del team di sviluppo di Samba un'iscrizione premium al Microsoft Developer Network (MSDN) e abbia lavorato per favorire la compatibilità con il proprio software.
Il comunicato stampa ufficiale rilasciato da Samba.org è disponibile a questo indirizzo.

sabato 22 dicembre 2007

Ultime Google News

Google ha introdotto alcuni aggiornamenti minori al suo servizio di web-mail Gmail, praticamente tutti legati alla recente integrazione del servizio con Google Talk, il client VoIP e IM del colosso. La funzionalità Gmail Chat, lanciata a Febbraio, è ora disponibile in 17 lingue oltre l'inglese US: inglese UK, danese, olandese, finlandese, francese, tedesco, italiano, polacco, portoghese, russo, spagnolo, svedese, turco, giapponese, coreano e cinese semplificato e tradizionale.
Gmail Chat rappresenta la prima integrazione di funzionalità e-mail e instant messaging direttamente in finestra del browser che offre agli utenti una esperienza di comunicazione senza soluzione di continuità. Gmail Chat consente agli utenti Gmail di raggiungere i propri contatti direttamente dall'interfaccia del proprio account di posta web in modo rapido e semplice. La nuova funzionalità risolve la frustrazione degli utenti che devono utilizzare strumenti di comunicazione e si trovano a dover scegliere tra differenti applicazioni e-mail o IM. Con Gmail Chat, non c'è nulla da scaricare e non bisognerà compilare una propria lista di contatti. Quando gli utenti vedono che i loro contatti sono in linea, possono immediatamente inviargli e-mail o iniziare una sessione di chat. Quando le chat vengono salvate, compaiono come messaggi di e-mail classici in Gmail, rendendo più facile agli utenti ottenere e ricercare le informazioni importanti contenute nelle loro conversazioni. Gmail in sostanza integra le funzionalità di Google Talk, eslcuse quelle VoIP.
Google ha poi introdotto i "suoni Gmail Chat", ossia la funzionalità di notifica sonora per le chat. Questa funzione, disponibile per ora solo nell'interfaccia inglese US, necessita Flash e quindi che nel browser sia installata la plug-in relativa. Le notifiche sonore potranno essere disattivate (sono attive di default) in Impostazioni – Chat.
Google ha infine introdotto la funzionalità "immagini per Gmail", non ancora disponibile comunque su tutti gli account e nelle versioni in lingua diversa dall'inglese US. Gli utenti hanno ora la possibilità di scegliere una foto per indicare la propria identità (da Impostazioni, eseguendo l'upload e il crop di una immagine scelta), e visualizzare l'immagine di ciascun proprio contatto. Le immagini vengono mostrate in roll-over sul nome del contatto nella inbox, in Contatti e nella lista Contatti Rapidi. Inoltre è possibile impostare per un contatto una immagine diversa da quella da lui scelta e anche "suggerirgli" l'uso di questo particolare avatar, tutto direttamente dall'interfaccia Gmail (In Contatti e cliccando su un contatto). L'utente potrà infine scegliere di mostrare la propria immagine solo ai contatti (quelli che possono vedere il suo stato) o rendere l'avatar pubblico. L'Immagine Gmail e l'avatar di Google Talk personali sono "collegati". Settando per se in Gmail una immagine, questa modifica viene trasferita a GTalk, alla stessa maniera impostando l'avatar in GTalk il cambiamento si riflette anche all'immagine impostata in Gmail. Ci dovrebbe comunque essere un certo delay prima che le immagini modificate in Gmail vengano mostrate sul client Google Talk.

venerdì 16 novembre 2007

Sony Bravia Theatre DAV-IS10, nuovi diffusori


Per non rinunciare alle emozioni del grande schermo, al suono surround che solo il grande cinema ti offre, Sony ha inventato l’home cinema “in miniatura”: un sistema facile da configurare e utilizzare, completo di tutto quanto occorre per vivere un’esperienza di home entertainment senza confronti.

Soprattutto oggi che l’Alta Definizione offre la possibilità di un audio che niente ha da invidiare alla spettacolarità delle sue immagini. E che, per poter essere goduto appieno, ha bisogno di soluzioni diverse adatte alle esigenze dei diversi consumatori, per cui Sony ha progettato un’offerta diversificata che spazia dai componenti “top class” della linea ES ai sistemi home theatre di diversa forma e misura.

Uno degli ostacoli in tema di Home Theatre è sempre stato la dimensione degli speaker, da alcuni considerata troppo invasiva nell’ambiente domestico, tanto che la penetrazione di questi sistemi in Italia è attorno al 6%, contro una media europea di 10%. Per rispondere a questa “sfida”, Sony ha realizzato il nuovo sistema DAV-IS10, la soluzione di home cinema completa ed elegante, caratterizzata da finiture nere lucide, eleganti comandi a scomparsa che si illuminano quando sfiorati, e diffusori talmente piccoli da poggiare comodamente sul palmo di una mano.

Un sistema raffinato e conveniente che offre però livelli prestazionali sorprendenti, con ben 550 Watt di potenza per riempire anche le stanze più grandi di un audio surround mozzafiato. Per installarlo e configurarlo bastano soltanto 30 secondi e, grazie alla funzione BRAVIA Theatre Sync, il sistema funziona in perfetta sinergia con i televisori Sony BRAVIA, consentendo di gestire le principali funzioni al semplice azionamento di un tasto.

Come se tutto ciò non bastasse, il sistema può essere collegato a un Network WALKMAN®, al telefono cellulare o alla rete di casa per condividere anche con familiari e amici il piacere di ascoltare la musica più bella. Il tutto grazie all’innovativa Digital Media Port di Sony.

Piccole dimensioni, grande suono
Nelle case di oggi si è spesso a corto di spazio. Ecco perché Sony, da sempre, realizza sistemi studiati per assicurare prestazioni straordinarie con diffusori dall’ingombro minimo.

Ora, con il sistema DAV-IS10, la miniaturizzazione tocca livelli senza precedenti, con cinque minuscoli diffusori delle dimensioni di una pallina da golf. Concepiti per risultare praticamente invisibili, si possono nascondere sulle mensole, oppure installare a parete con le apposite staffe fornite in dotazione, o ancora utilizzare i compatti supporti da terra disponibili come accessori opzionali.

BRAVIA Theatre Sync: gestione totale del sistema “a portata di tasto”
Non sarebbe fantastico poter iniziare la visione di un film semplicemente azionando un tasto, o spegnere l’intero sistema di intrattenimento con la stessa semplicità? Ebbene, utilizzando il sistema DAV-IS10 con gli ultimi televisori LCD Sony BRAVIA ed altri componenti Sony, quali un DVD recorder, oggi è possibile, ed è tutto merito della tecnologia Sony BRAVIA Theatre Sync.

Utilizzando i segnali di comando che passano attraverso la connessione HDMI tra il sistema e un televisore BRAVIA o altri componenti Sony, BRAVIA Theatre Sync permette infatti la gestione ‘one-touch’ di un sistema Sony completo, ossia mediante il semplice azionamento di un tasto.

Ad esempio, premendo il tasto “play” sul telecomando del sistema DAV-IS10, si accendono l’impianto e il televisore, si seleziona l’ingresso corretto per il sistema e si avvia la riproduzione del film. Terminata la visione, sarà sufficiente premere il pulsante di spegnimento per spegnere l’intero impianto. In poche parole, non si dovrà più impazzire alla ricerca del giusto telecomando: per azionare l’intero sistema ne basterà infatti uno solo … niente di più semplice.

Elegante, compatto e facile da usare: il cuore del sistema DAV-IS10
Il cuore del sistema è il compatto corpo nero lucido, che riunisce un lettore DVD/CD/MP3 con audio surround e un sintonizzatore radio FM/AM RDS. Largo soltanto 21 cm, alto poco più di 10 cm e dotato di slot di caricamento dischi, lo chassis risulta estremamente compatto. Inoltre, per esaltare il design elegante e pulito dell’unità, i comandi con sensori a sfioramento sono nascosti sul pannello superiore e compaiono soltanto quando sfiorati.

Digital Cinema Auto Calibration
Ogni ambiente ha caratteristiche acustiche proprie. Per questo motivo, i veri appassionati trascorrono ore ed ore a spostare i diffusori, a regolare i vari livelli e ad armeggiare con tutta una serie di altre impostazioni allo scopo di ottenere l’audio surround migliore. Con il sistema DAV-IS10, invece, basta premere un tasto e tutto avviene automaticamente! Il merito è della tecnologia Digital Cinema Auto Calibration di Sony, uno dei sistemi più veloci e precisi nel suo genere.
È sufficiente collegare il microfono fornito in dotazione all’unità di controllo del sistema DAV-IS10, posizionarlo nel punto in cui normalmente ci si siede e premere un tasto: il sistema provvederà a eseguire una breve sequenza di test e, dopo aver analizzato i risultati, calcolerà il volume, il ritardo e la frequenza ideali per i diffusori. Il sistema sarà così perfettamente configurato e pronto per avvolgere la stanza, di qualsiasi forma e dimensioni, di un travolgente audio surround, il tutto in circa 30 secondi.

Sony Digital Media Port – connettività per PC e lettori di musica portatili
Quasi tutti, ormai, portano sempre con sé i propri brani preferiti – vuoi su un lettore MP3, vuoi su un music phone, ad esempio un modello della serie Sony Ericsson WALKMAN. Il sistema DAV-IS10 consente di diffondere la musica riprodotta da questi dispositivi o di ascoltarla tramite streaming dal proprio PC attraverso una rete wireless.

Il sistema è infatti dotato di due Digital Media Port compatibili con lettori MP3, quali il Network WALKMAN, mentre il ricevitore TDM-BT1 effettua lo streaming musicale via Bluetooth da dispositivi quali i music phone A2DP. Il ricevitore
TDM-NC1 consente invece il collegamento alla rete Wi-Fi di casa ed effettua lo streaming musicale da un laptop VAIO o altri computer.

Il sistema integra inoltre un Portable Audio Enhancer, che applica una sofisticata tecnica di elaborazione dei segnali digitali per valorizzare l’audio della musica compressa contenuta nei lettori portatili.

DVD upscaling: la migliore qualità di visione possibile per i propri film
Con la diffusione dei televisori ad alta definizione e la scelta di schermi sempre più grandi, serve una soluzione che consenta di guardare i DVD con la stessa qualità delle trasmissioni televisive ad alta definizione.

Il sistema DAV-IS10 è in grado di effettuare l’upscaling dei segnali a definizione standard di un DVD e di riproporli in definizione migliorata sul TV tramite la connessione HDMI. Così, sui televisori compatibili HD, la qualità di riproduzione dei DVD sarà a dir poco straordinaria.

Un sistema completo compatto ed elegante per l’home entertainment
Nonostante le dimensioni estremamente compatte, il sistema DAV-IS10 è una soluzione di home entertainment capace e potente. Con i suoi minuscoli diffusori, l’eccellente qualità sonora e gli avanzati contenuti tecnologici, è il sistema perfetto per le case di oggi e il compagno ideale dei televisori Sony BRAVIA.

Il sistema Sony DAV-IS10 sarà disponibile a partire da settembre.

Sony DAV-IS10 in sintesi

• 450 W di potenza totale: 5×50W e 2×100W per subwoofer, con efficiente amplificazione digitale S-Master di alta qualità

• Diffusori principali ultra-compatti – solo 4,3 x 5,6 x 3,9 cm

• Compatta unità nera lucida, con drive DVD/CD, dotata di slot di caricamento e capacità di riproduzione anche di DVD+R/RW, DVD-R/RW, Video CD e MP3

• Comandi sul pannello superiore sensibili al tatto: si illuminano quando sfiorati per poi scomparire nuovamente al fine di preservare la pulizia del design

• “BRAVIA” Theatre Sync per il funzionamento ‘one-button’ dell’intero sistema

• Digital Cinema Auto-Calibration per una perfetta e veloce configurazione ‘one-touch’ del sistema

• Video upscaling a 720P/1080i per la massima qualità d’immagine sui televisori ad alta definizione via HDMI

• Audio analogico e ingressi digitali ottici/coassiali per sorgenti esterne

• Dolby Digital/Pro-Logic II e decodifica DTS

• Sony Digital Media Port per la connessione a un Network WALKMAN, a lettori iPod, dispositivi Bluetooth e reti Wi-Fi domestiche, e funzione Portable Audio Enhancer


sabato 3 novembre 2007

Finanziaria e VoIP

C'è una misura, nella bozza della nuova Legge Finanziaria per il 2008, che il mondo dell'ICT non può non notare: la Finanziaria prevede, per legge, che le pubbliche amministrazioni si affidino al VoIP come strumento per la telefonia. Il tutto non con scadenza a lungo termine, ma a decorrere dal prossimo 1 gennaio. Tale misura si inserisce all'interno di una Finanziaria plasmata sul principio del taglio dei costi per poter reinvestire il 'tesoretto' risultante in stimoli nuovi per l'industria e per l'abulico sistema economico nazionale.


Trattasi di un passo obbligato che, però, necessitava di essere formalizzato per dare il via ad una piccola grande rivoluzione del mondo della PA. Il Corriere della Sera cita specificatamente il passo del documento di programmazione: «le pubbliche amministrazioni centrali sono tenute ad utilizzare i servizi "Voce tramite protocollo internet" (Voip) previsti dal sistema pubblico di connettività o da analoghe convenzioni stipulate a livello territoriale». Il documento esplicita anche il risparmio previsto per i prossimi anni: «complessivamente una riduzione di 25 milioni di euro per l'anno 2008, 140 milioni di euro per l'anno 2009 e 286 milioni di euro a decorrere dal 2010». Interessante una ulteriore precisazione riportata dal Sole 24 Ore: «il mancato adeguamento comporta un taglio del 30% delle risorse per la telefonia nell'anno successivo», il che costringe le pubbliche amministrazioni a mobilitarsi risolutamente onde evitare problemi maggiori 12 mesi più tardi.


In questo contesto è quantomeno obbligata l'osservazione che porta avanti l'associazione Anti Digital Divide: «traendo spunto dalle notizie legate alla Finanziaria, riguardanti l'utilizzo di Internet e del sistema VoIP nelle PA, ricordiamo che ad oggi molti comuni sono ancora Digitalmente Divisi, quindi impossibilitati ad utilizzare detti sistemi [...] Ci ricorda molto un'iniziativa del passato in cui sono stati sovvenzionati alcuni sottoscrittori di linee a banda larga, senza calcolare però che molti cittadini erano "tecnicamente" tagliati fuori [...] Attendiamo fiduciosi di sapere in dettaglio questa proposta, ma già da adesso invitiamo l'Associazione Nazionale Piccoli Comuni a monitorare attentamente la questione. Questo potrebbe anche essere la leva per discutere finalmente delle regole e dei costi per il servizio universale, facendo notare come la necessità di banda larga, come anche l'impossibilità d'accesso, sia ampiamente diffusa».

venerdì 26 ottobre 2007

Sicurezza wireless

A Manerbio sicurezza wireless e servizi ai cittadini

Una piattaforma di videosorveglianza ampliabile a WiFi e Voip realizzata da Tecnonet


Situata tra Brescia e Cremona, la cittadina di Manerbio (13 mila abitanti) rappresenta un importante nodo per le vie di comunicazione del territorio della bassa bresciana. L’amministrazione comunale aveva l’esigenza di adottare un sistema di videosorveglianza che consentisse di rafforzare il controllo sul territorio al servizio della Polizia locale.

L’obiettivo era quello di posizionare una serie di telecamere in punti strategici del territorio e di realizzare una infrastruttura di collegamento che svincolasse l’amministrazione dall’uso della costosa tecnologia di connettività tradizionale. Ovviamente il sistema avrebbe dovuto offrire le massime garanzie in tema di sicurezza dei dati e tutela della privacy dei cittadini, nel pieno rispetto delle normative vigenti.

Il Comune ha dato la sua approvazione alla proposta del system integrator Tecnonet sviluppata attorno a tre elementi principali: una piattaforma software per la gestione della videosorveglianza, un’infrastruttura di rete wireless e telecamere Ip posizionate in punti strategici del territorio. Per quanto concerne il software di videosorveglianza, Tecnonet ha proposto la piattaforma XProtect Enterprise Edition di Milestone. Questa soluzione opera in ambiente Microsoft Server. Dal punto di vista infrastrutturale, Tecnonet ha progettato una rete wireless con architettura ridondata, composta da 20 link. Essi, da un punto centrale, collegano in Hyperlan 2 le varie telecamere posizionate sul territorio. Gli apparati scelti sono di Mrv Communications, capogruppo di Tecnonet . I prodotti utilizzati sono quelli della famiglia MRW55. Si tratta di sistemi outdoor dual band che forniscono servizi di connettività in modalità bridging e/o access point per interfacce a 5,7 Ghz e a 2.4 Ghz.

Per quanto riguarda la sicurezza, la famiglia MRW55 integra funzionalità di encryption e autenticazione. Per le telecamere sono stati selezionati apparati Axis. La rete wireless è tecnologicamente predisposta per supportare connettività Wi-Fi e VoIp, a tutto vantaggio della flessibilità di utilizzo e dell’erogazione di nuovi servizi ai cittadini.


giovedì 18 ottobre 2007

Centro del "software libero" a Pisa




La Regione Toscana sta lavorando ad un protocollo d'intesa che valorizzerà le competenze del polo tecnologico di Navacchio

Potrebbe nascere a Pisa un centro nazionale sulle tematiche relative all"open sourcé nel settore informatico, ossia al 'software libero', il software accessibile a tutti, senza dover pagare diritti, e che può essere implementato da chiunque purché si tratti di esperti. La Regione Toscana sta lavorando ad un protocollo d'intesa e in questo senso un incontro si è svolto insieme alla Provincia di Pisa.

"Il centro - ha spiegato il vicepresidente della Regione, Federico Gelli - si impernierà sull'esperienza e le competenze del polo tecnologico di Navacchio, a cui spetterà soprattutto il compito di coinvolgere i questo percorso le imprese, mentre sarà l'università di Pisa a curare i rapporti con la pubblica amministrazione".

Secondo la Regione la convinzione è che il "software libero" non sia questione da addetti ai lavori ma "frontiera nello sviluppo dell'uso della rete, in grado di assicurare qualità, economicità, democrazia". La Regione Toscana sta adottando questo software elle postazioni di lavoro dei suoi uffici e nei progetti di e-government.

martedì 16 ottobre 2007

Il Wi-Fi fa male alla salute?


Il dibattito resta aperto mentre il governo britannico avvia un'indagine/studio che svelerà il mistero in due anni

(ITnews) - Roma - A pochi giorni dall'avvio della procedura di assegnazione delle licenze Wimax in Italia si scopre, che il figliuol prodigo Wi-Fi, potrebbe causare danni alla salute. E' quanto potrebbe emerge uno studio britannico condotto dalla Health Protection Agency (HPA), Ne è convinto il Governo inglese che ha puntato nuovamente il dito contro la tecnologia che consente la trasmissione di onde radio senza fili. La ricerca finanziata dal governo britannico durerà due anni e prenderà in esame il comportamento di giovani sottoposti alle emanazioni elettromagnetiche del Wi-Fi. Al momento, sembrano rassicuranti le dichiarazioni di Pat Troop, amministratore delegato di Hpa che ha sottolineato che al momento "non esistono evidenze scientifiche che il Wi-Fi danneggi la salute della popolazione". Il dibattito resta aperto. Ciò che è certo è che lo studio si focalizzerà sui giovani, i più a rischio, considerato anche che la tecnologia Wi-Fi è sempre più diffusa nelle case che viaggiano a Internet senza fili.

Tratto da http://punto-informatico.it/p.asp?i=58011

Lo decidono le autorità di una università canadese che vietano l'uso di apparecchi WiFi all'interno delle strutture didattiche. Nessun divieto invece per telefonini, forni a microonde e altri sparawireless Una decisione clamorosa è stata assunta dalla direzione della Lakehead University canadese, ovvero quella di mettere al bando la copertura WiFi dell'ateneo e, più in generale, di vietare l'uso di dispositivi WiFi all'interno degli edifici universitari.

Il motivo non va ricercato in un'anacronistica e improbabile censura quanto invece nel timore espresso dal rettore dell'Istituto, Fred Gilbert, per la salute di docenti e studenti.

Sebbene non vi sia alcuna prova che i campi elettromagnetici sviluppati da attrezzature come quelle di connettività wireless siano dannosi, secondo Gilbert non si sono neppure prove che indichino il contrario, in particolare quando a questi campi sono esposti i più giovani. Anzi, Gilbert segnala come significativo uno studio della Commissione per le Public Utilities californiana secondo cui è necessario investigare ulteriormente, vista la possibilità che vi siano rischi per la salute. E cita anche l'OMS, l'Organizzazione mondiale della Sanità, che tende ad escludere i rischi - spiega Gilbert - ma non al 100 per cento. Va detto che la "chiusura" verso il WiFi da parte dell'ateneo non è una cosa nuova ma è emersa solo di recente dopo che il network televisivo CBC ha dedicato alla questione un servizio, nel quale lo stesso Gilbert ha sostenuto che vi sarebbero studi secondo cui questo genere di tecnologia è potenzialmente un rischio. "Questi rischi - ha dichiarato - sono particolarmente rilevanti per i tessuti in rapida crescita dei giovani e la maggiorparte dei nostri studenti sono ancora nell'età della crescita, ed è quindi soltanto una precauzione e un voler fornire un ambiente che evita di porre un rischio potenziale".

A spingere Gilbert e il collegio accademico verso questa direzione sarebbero anche alcuni casi di elementi che in passato hanno influito sulla salute ma il cui impatto si è capito solo con decenni di ritardo, come con il tabacco o l'amianto. D'altra parte l'ateneo, ha sottolineato Gilbert, offre altri generi di punti di accesso alla rete in moltissime aree del campus universitario, "nodi" che consentono di accedere facilmente alla rete a fibre ottiche con cui è collegata la struttura didattica. "Quello che voglio dire - ha anche spiegato il rettore - è che mentre gli scienziati ci lavorano, io non intendo creare una struttura che può tradursi in una esposizione potenzialmente rischiosa per gli studenti. In generale, i rischi sono maggiori dove si trovano le antenne e gli hotspot wireless, ma è proprio lì - ha aggiunto - che gli utenti tendono a ritrovarsi perché ottengono il segnale migliore".


Inutile dire che la notizia del bando del WiFi sta rapidamente facendo il giro della rete. BoingBoing osserva: "E che dire allora dei telefonini, dei walkie-talkie a 2,4 Ghz o dei forni a microonde?" Tutti dispositivi a forte impatto elettromagnetico ma utilizzati senza problemi all'interno del campus.

lunedì 15 ottobre 2007

WiMAX: al via la gara per le licenze

Definiti i dettagli finali relativi alla gara d'asta per i diritti d'uso WiMAX. Definite le macroregioni, tempistiche e metodologia di assegnazione


Il WiMAX (Worldwide Interoperability for Microwave Access) è uno degli argomenti di maggiore attualità in ambito tecnologico: grandi aspettative vengono rivolte dal pubblico verso tale innovativo sistema di comunicazione a banda larga e, soprattutto, gli utenti che vivono in zone non coperte dai servizi a banda larga via cavo attendono con trepidazione le nuove proposte. A inizio estate AgCom aveva rilasciato un regolamento iniziale in base al quale i vari operatori avrebbero potuto partecipare alla gara: venivano definite le macroregioni, il numero di licenze e lo spettro di frequenza dedicato ai nuovi servizi a banda larga. Tale documento rimandava però a un ulteriore elaborato che definisse meglio i dettagli.

Nelle scorse ore il Ministro Paolo Gentiloni ha comunicato che ogni dettaglio in merito all'asta per l'assegnazione delle licenze WiMax è stato definito e che nei prossimi mesi l'iter entrerà pienamente nella fase operativa. In primo luogo viene ribadito che i tre diritti d'uso hanno accesso ciascuno ad un'ampiezza di banda pari a 2x21MHz nello spettro di frequenza dei 3,4 - 3,6GHz.

Due dei suddetti diritti d'uso hanno validità per aree estese a livello macroregionale mentre il terzo diritto d'uso è rilasciato in ambito regionale e riservato a soggetti che non offrano servizi di connettività in ambito 3G (UMTS). Questa particolare norma intende concedere concrete possibilità anche a operatori di più modeste dimensioni, il tutto all'insegna di una maggior concorrenza. E' bene precisare che il medesimo operatore non potrà possedere più diritti d'uso assegnati per differenti macroregioni.

Qui di seguito riportiamo la suddivisione in macroregioni e gli importi minimi per i diritti d'uso:



Le future fasi prevedono la pubblicazione del regolamento completo sulla Gazzetta Ufficiale. A partire da tale data tutti i concorrenti avranno tempo 45 giorni per presentare la propria domanda di partecipazione. Entro ulteriori 15 giorni il Ministero redigerà l'elenco dei soggetti ammessi alla gara: tali soggetti avranno poi ulteriori 30 giorni per presentare le proprie offerte.

Va precisato che il Ministero ha elaborato alcune clausole appositamente inserite per cercare di risolvere il problema del digital divide: i vari comuni compresi nelle macroregioni sono stati raccolti in differenti elenchi che raggruppano territori coperti dai servizi a banda larga e altre aree in cui non è disponibile l'accesso ai servizi internet. L'elaborazione di progetti aventi per oggetto comuni non serviti da ADSL da diritto all'assegnazione di un maggior punteggio.

Come ribadito dal Ministro Paolo Gentiloni il lavoro svolto in merito all'assegnazione delle licenze WiMAX è andato ben oltre le motivazioni di natura economica: sono stati previsti appositi strumenti che intendono stimolare la concorrenza lasciando qualche margine di manovra anche agli operatori minori. Alcune norme, inoltre, intendono forzare la fornitura di servizi WiMAX nelle aree rurali cercando quindi di intervenire concretamente nei confronti del ben noto problema legato al digital divide.

Per conoscere chi si sarà aggiudicato i diritti d'uso, validi per i prossimi 15 anni, nelle svariate macroregioni sarà necessario attendere oltre 3 mesi e quindi solo nel primo trimestre del 2008 si entrerà a pieno titolo nella fase più operativa. A 30 mesi dall'assegnazione dei vari diritti d'uso è prevista una verifica da parte del ministero per verificare lo stato di avanzamento delle infrastrutture: se verrà appurato che i diritti d'uso giacciono inutilizzati potrà essere richiesto al detentore di tali diritti l'obbligo di rivenderli.

Quest'ultima clausola farà sicuramente discutere poichè due dei tre diritti d'uso presenti in ogni macroregione saranno accessibili anche agli operatori che ad oggi posseggono infrastrutture 3G: tali soggetti potrebbero avere interesse nell'aggiudicarsi le frequenze WiMAX senza procedere poi alla realizzazione di una nuova infrastruttura. Tutto ciò avrebbe lo scopo di preservare i precedenti investimenti fatti nello sviluppo di soluzioni UMTS.

L'obbligo di rivendita potrà risolvere solo in parte il problema poiché in caso do cessione dei diritti d'uso è prevista una normale contrattazione commerciale e, quindi, i suddetti operatori potranno fissare il prezzo a proprio piacimento, salvaguardando ulteriormente i propri interessi.


mercoledì 10 ottobre 2007

Padri dell'hard disk, la svolta dell'elettronica


Articolo di Guido Romeo
Il disco rigido vince il Nobel per la fisica. A spartirsi i 10 milioni di corone svedesi, circa un milione di euro, che accompagnano il premio dell'Accademia di Stoccolma, sono il francese Albert Fert (69 anni) e il tedesco Peter Grünberg (68 anni) che nel 1988 hanno scoperto separatamente un effetto completamente nuovo della materia, quella "magnetoresistenza gigante" che oggi permette il funzionamento di tutti gli hard-disk, dai pc ai supercalcolatori.


«Si tratta di un Nobel da manuale – osserva Fabio Beltram, direttore del laboratorio di nanotecnologie della Scuola normale di Pisa – perché conferito a una scoperta della ricerca di base iniziata negli anni 70, ma che poi, in meno di dieci anni, ha rivoluzionato l'industria elettronica con grandissimi impatti tecnici e sociali». I suoi effetti sono sotto gli occhi di tutti. Se solo cinque anni fa il nostro pc poteva avere qualche decina di megabit di capienza nel proprio disco, oggi è 10mila volte più capiente e contiene centinaia di gigabit. Un disco immagazzina informazioni sotto forma di piccolissime aree magnetizzate, ognuna delle quali costituisce un bit, quel pezzettino di informazione binaria rappresentato come un 1 o uno 0 e che può far parte indifferentemente di musica, testi, immagini o programmi software. Più piccole sono queste microsuperfici, maggiore sarà la capienza del disco, ma anche la sensibilità necessaria perché le testine di lettura siano in grado di leggere l'informazione. È qui che l'effetto di magnetoresistenza gigante (Gmr) entra in gioco. Si tratta di un bizzarro e inatteso effetto della materia – "esotico" come lo chiamano i fisici – che consiste nell'amplificazione della resistenza di un metallo quando al suo interno sono presenti impurità come particelle magnetiche anche piccolissime.

Per gli ingegneri elettronici, come quelli dell'Ibm che nel 1956 lanciarono la prima memoria digitale Ramac, è stato l'uovo di Colombo. Grazie alla Gmr si possono concentrare in spazi piccolissimi quantità enormi di informazioni e facendo uso di campi magnetici anche molto deboli. Fert e Grünberg cominciarono a studiare gli effetti di queste contaminazioni negli anni 70 contaminando sottili film di rame con particelle magnetiche in una di quelle che per molti è stata forse la prima applicazione delle nanotecnologie. Anche se meno eclatante del raddoppio della potenza di calcolo descritta dalla legge di Moore, la corsa a memorie ultrapiccole e sempre più grandi segue una curva analoga e una caratteristica fondamentale dei computer fin dai primi disegni della macchina di Turing.

«Oggi sono in commercio dischi con capienze di 20 Gb per pollice quadrato e nel 2010 si arriverà a 1 terabit, mille volte tanto - spiega Marco Affronte, ricercatore dell'Università di Modena e del laboratorio S3 dell'Infm – ma l'obbiettivo è quello di arrivare a stoccare informazioni in unità ancor più piccole, composte addirittura da singole molecole magnetizzate». La sfida non è però scontata. Se oggi una singola unità di memoria è dell'ordine di 50 nanometri e in laboratori si arriva già su grande scala a 20, per operare a livello molecolare bisogna scendere sotto i 10 nanometri (10 milionesimi di millimetro), operando nel campo della fisica quantistica, dove le leggi della materia diventano molto più complesse e in parte ancora imprevedibili. In questa direzione lavorano molti laboratori pubblici, ma anche i giganti dell'informatica come Ibm. «Un'area estremamente promettente e sulla quale lavora anche Fert è quella della spintronica - osserva Affronte - che mira a utilizzare una proprietà dell'elettrone, lo "spin" appunto per trasportare informazioni nei dispositivi elettronici e che permetterebbe di moltiplicare rapidamente la potenza di calcolo. Si tratta di ricerche di base, ma potenzialmente rivoluzionarie come quelle che hanno portato ai semiconduttori e ai microchip».

VoIP e SIP, forse una minaccia ?


Riporto un articolo di Jakub Maslowski.

Chi segue le notizie dal mondo dell' IT Security sa già che i servizi VoIP che si affidano al protocollo SIP non sono il modo più sicuro per garantire una comunicazione per la propria casa o la propria azienda. Infatti, i dispositivi che utilizzano il protocollo SIP (Session Initiation Protocol) sono vulnerabili alle tecniche di intercettazione.

Ci sono tonnellate di hardware e software VoIP che si basano sul protocollo SIP, e sono molti gli internet provider che ne fanno ampiamente uso. Cerchiamo di spiegare quanto questo protocollo può essere pericoloso e dannoso per gli utenti finali.

Uno degli aspetti più critici riguarda l'utilizzo dei servizi VOIP basati sul protocollo SIP da parte delle aziende, le quali potrebbero essere soggetti a rischi piuttosto seri come quello legato allo spionaggio industriale.


Un altro punto di vista della questione è legato alle agenzie di intelligence/investigative (come l' FBI), che potrebbero far leva su queste falle per intercettare una comunicazione.

Inoltre, negli ultimi giorni la mailing list full-disclosure ha riportato molti informazioni interessanti sui problemi legati ai telefoni SIP. La Sûnnet Beskerming, un'azienda IT australiana, ha rilasciato alcune considerazioni sull'argomento:

“La ricerca che è stata pubblicata indica che, per almeno un produttore di telefoni SIP, è possibile chiamare automaticamente un dispositivo e far si che la chiamata venga accettata in maniera silenziosa (persino nel caso il telefono risulti agganciato), trasformando così il dispositivo in un classico telefono buggato. Mentre storicamente per sfruttare i bug legati alle telefonia era necessario accedere fisicamente alla linea telefonica da attaccare, con il VoIP è invece possibile sfruttare con una certa facilità una qualsiasi vulnerabilità da qualunque parte del mondo. Oggi, chiunque dalla sua poltrona di casa può far ciò che le spie e le forze dell'ordine erano in grado di fare accedendo all'interno di switch e centraline telefoniche.”

Pare che i telefoni e dispositivi SIP siano sotto la particolare osservazione di molti ricercatori di sicurezza. Di recente sono stati pubblicati in rete alcuni exploit che fanno leva su alcune vulnerabilità riscontrate nei telefoni SIP di diversi produttori, tra cui alcuni dispositivi Cisco SIP, i quali risultano vulnerabili ad attacchi Denial of Service. La lista dei dispositivi affetti sembra tuttavia destinata a crescere.


Milano,Parco Sempione diventa wi-fi


Connessione senza fili per i visitatori


Per fare jogging, per portare a spasso il cane, per navigare sul web. Sì, perché per i visitatori del Parco Sempione di Milano si annuncia una gradita sorpresa: tutta l'area del parco verrà infatti dotata della connessione wi-fi a internet. Parte il progetto Wireless Castle, che prevede la connessione gratuita e senza fili a Internet all’interno del Parco Sempione. Il progetto anticipa Milano Wireless (connessione a Internet su tutto il territorio cittadino) e rientra nel più ampio obiettivo di sensibilizzare i milanesi all’utilizzo consapevole degli spazi verdi, a partire dai parchi centrali di Milano.

Fino al 31 agosto 2009 saranno presenti antenne wi-fi presso la Torre Branca, l’Acquario Civico, la Triennale di Milano e la Biblioteca Civica per assicurare una copertura di rete a tutti i visitatori del parco. Tutti i cittadini che vorranno sfruttare la nuova tecnologia messa a loro disposizione dal Comune, potranno fruire della connettività semplicemente ritirando presso i punti di distribuzione presenti la schedina di registrazione completamente gratuita, dopo aver effettuato la registrazione per ricevere il codice di accesso alla rete Internet.

“Milano ha tutte le risorse per diventare una delle città con la maggiore copertura Internet senza fili – ha detto l’assessore all’Arredo, Decoro Urbano, Verde, Maurizio Cadeo. Il nostro progetto intende dare una risposta immediata alle esigenze dei milanesi per poter usufruire di Internet liberamente, all’aria aperta e a contatto con la natura. I parchi sono il nostro primo obiettivo vista l’alta frequentazione che i cittadini ne fanno: ora oltre che rilassarsi sui prati i milanesi potranno anche lavorare, studiare e riappropriarsi degli spazi comuni”.

Il progetto Wireless Castle al parco Sempione, promosso dall’assessorato all’Arredo, Decoro Urbano, Verde ha visto la sua realizzazione grazie al lavoro congiunto dei più importanti soggetti che operano nel settore dell’ Information Technology, come Intel, Infracom Network Application, Guglielmo, SMC.

Voip, gli inseguitori di Skype


Non solo Skype. In Rete ci sono varie possibilità per effettuare telefonate utilizzando la tecnologia Voip, attraverso la quale la voce passa attraverso il protocolo IP. Un'evoluzione del concetto di chat che aggredisce il mercato della telefonia. Oggi Skype, il software acquisito da eBay due estati fa messo a punto da Niklas Zennström - il fondatore di Kazaa adesso occupato nel lancio nella nuova web tv Joost - conta oltre 200 milioni di utenti ed è diventato lo standard del software Voip. Ma non è l'unico. Nel frattempo, infatti, sono spuntate altre compagnie che offrono un servizio analogo e tariffe concorrenziali sulle telefonate fuori dalla Rete.

Tra queste c'è Voipstunt ( www.voipstunt.com ) il primo concorrente di Skype, introduce delle novità come le chiamate gratuite verso i numeri fissi di alcuni paesi, tra i quali è compresa l'Italia con tariffe inferiori a quelle di Skype ed il protocollo utilizzato è il SIP, che permette di utilizzare anche normali telefoni. Subito dopo, si affianca il primo a non richiedere l'installazione di software ed a permettere l'utilizzo del proprio telefono: jajah ( www.jajah.com ) che da poco ha introdotto l'italia tra i paesi no-pay per effettuare chiamate.

Per poter entrare prepotentemente nel mercato voip, Gizmo ( www.gizmoproject.com ) offre la gratuità anche verso i cellulari: basta essere utenti registrati per poter usufruire di questo servizio. Anche i colossi come Eutelia e Alice hanno introdotto il voip nelle loro offerte.

Questo è solo un esempio di quello che la rete e lo schieramento dal basso possa essere potente per poter avere voce e cambiare la propria vita di tutti i giorni.
Grillo in Italia è stato il primo a promuovere anche altre iniziative mondiali come Second Life ( www.secondlife.com ) dove è possibile avere una vera e propria vita virtuale con la possibilità di business riscontrabili in quella reale ( famosa la storia della prima miliardaria da moneta second life a dollari, vendendo terreni virtuali alla toyota) o il progetto Zopa ( www.zopa.it ) un sistema di prestiti Peer-To-Peer dove non si condividono file ma soldi, senza passare per le banche.

lunedì 8 ottobre 2007

Java: falla di sicurezza !


Java ha urgente bisogno di patch


Santa Clara (USA) -
Gli esperti di sicurezza raccomandano agli utenti di aggiornare la propria versione di Java appena possibile, questo indipendentemente dalla piattaforma utilizzata. L'allarme è stato lanciato in seguito al rilascio, da parte di Sun, di nuove versioni di Java Runtime Environment (JRE) che correggono 11 gravi vulnerabilità di sicurezza.


Le falle interessano JDK e JRE 6 Update 2 e versioni precedenti, JDK e JRE 5.0 Update 12 e precedenti, SDK e JRE 1.4.2_15 e precedenti, e SDK e JRE 1.3.1_20 e precedenti. I problemi affliggono tutte le piattaforme supportate da Java, incluse Windows, Linux e Mac OS X.

I problemi più gravi possono consentire ad un sito web maligno di guadagnare l'accesso ad una rete locale, bypassando firewall e altri sistemi di sicurezza, e di sottrarre o manipolare dati. Perché ciò avvenga, un utente deve visitare una pagina web contenente una applet dannosa.

"Ciò che rende queste debolezze così gravi è che i tipici software per la sicurezza lato client, come antivirus e antispyware, non riconoscono il codice Java utilizzato per questi exploit come dannoso, neppure con le tecniche euristiche", ha spiegato Tom Kristensen, CTO della società di sicurezza Secunia.

Altri bug sono contenuti in Java Web Start (JWS), ed anch'essi possono essere utilizzati per leggere e scrivere sul PC locale, copiare file o determinare la posizione della cache di JWS: quest'ultimo crack può essere utilizzato per conoscere quali applicazioni Java sono installate sul sistema.

In questo advisory Secunia ha classificato la pericolosità complessiva delle falle di Java come "highly critical".

Per aggiornare le più recenti versioni di Java è possibile avvalersi della funzione di aggiornamento automatico integrata nel software di Sun, oppure scaricare manualmente gli update da questa pagina. Va detto che la funzione di aggiornamento automatico non sempre funziona come dovrebbe: su di un PC della redazione, ad esempio, quando si scarica l'update e si tenta di installarlo si riceve in risposta un messaggio di errore.

sabato 6 ottobre 2007

Sony via all'era delle Tv Oled

Con Sony via all'era delle Tv Oled, gli schermi piatti del futuro

Per l'industria dei televisori, il prossimo primo dicembre è una data storica. Per quella data è infatti previsto il lancio, in Giappone, del primo apparecchio ultra piatto a tecnologia Oled (Organic light-emitting diode) della Sony. Il nuovo arrivato, apripista d'eccellenza di un'intera nuova generazione di apparecchi televisivi, si siede da ospite illustre al tavolo dove oggi dominano i prodotti a cristalli liquidi e al plasma.
Un mercato, quello dei televisori "flat screen", che globalmente vale oltre 80 miliardi di dollari l'anno e che l'avvento della nuova generazione di schermi ultra sottili potrebbe fortemente condizionare per almeno tre buoni motivi. Primo: i display Oled hanno dalla loro una maggiore definizione dell'immagine in movimento, in quanto sono autoilluminati e l'emissione di luce sullo schermo per visualizzare le immagini avviene al passaggio della corrente e non da un'apposita lampada di retroilluminazione (presente invece negli Lcd). Secondo: lo spessore è di pochi millimetri. Terzo, forse il più importante: i consumi di energia sono inferiori di circa il 40% rispetto a un apparecchio a cristalli liquidi. Con tutti gli immaginabili e potenziali benefici che ne derivano alla voce costi.

Produttori al lavoro, anche oltre le Tv
Sony, che rivaleggia testa a testa con la Samsung Electronics per detenere il trono nell'ambito degli Lcd, è quindi il primo produttore a rompere gli indugi e – confermando le anticipazioni date lo scorso gennaio in occasione del Consumer Electronic Show di Las Vegas) - a presentarsi sul mercato con un televisore da 11 pollici (e soli tre millimetri di spessore) che stando alle indiscrezioni dovrebbe costare l'equivalente di circa 1.250 euro. Una cifra consistente se paragonata agli attuali prezzi di listino degli Lcd da 32 o 37 pollici o dei plasma da 40 e 42 pollici – entrambi si comprano anche sotto i 1.000 euro - ma in realtà un prezzo che oggi copre a malapena tutti i costi di sviluppo e produzione e che solo nel tempo diventerà realmente abbordabile per i consumatori. Il limite attuale della tecnologia Oled è infatti nel poter essere applicata ai grandi pannelli e questo potrebbe, almeno inizialmente, anche limitare l'appeal del grande pubblico. Che però potrebbe essere attratto da prezzi migliori rispetto agli Lcd, grazie a un processo produttivo più semplice e veloce rispetto a quello dei Tv a cristalli liquidi. Katsumi Ihara, Executive Deputy President alla Sony, ha inquadrato il lancio dei nuovi televisori sottolineando come gli schermi Oled difficilmente prenderanno subito il posto degli Lcd ma ha rimarcato anche come il potenziale di questa tecnologia, nell'immediato futuro, sia decisamente elevato. Sta di fatto che Sony ha pianificato di produrre dai prossimi mesi circa 2.000 Tv Oled su base mensile (oltre al formato da 11 pollici sono previsti anche tagli da 20 e 27 pollici) mentre il target di vendita per la linea di Lcd Bravia da qui alla fine di marzo è fissato a quota 10 milioni di unità.

E gli altri produttori? La Samsung ha già iniziato a utilizzare i nuovi schermi ultra sottili per alcuni modelli di lettori musicali ed ha già presentato i primi prototipi di pannelli Oled grande formato dalla doppia funzione monitor e Tv. Toshiba e Matsushita Electric Industrial (che in Europa opera sotto il marchio Panasonic) hanno tempo fa costituito una joint venture – la Toshiba Matsushita Display Technology – con l'obiettivo di dare avvio alla produzione commerciale di schermi piatti Oled per televisori entro il 2009, quando è previsto il debutto sul mercato del primo Tv Oled da 30 pollici (a firma Toshiba). Considerata l'importanza strategica del produrre in proprio i pannelli a schermo piatto, è lecito aspettarsi che anche gli altri "big" del settore presto annunceranno le loro mosse in chiave Oled. Philips e Lg Electronics, che già lavorano in joint venture per produrre schermi Lcd, hanno annunciato tempo fa di aver messo a punto un nuovo processo di fabbricazione per realizzare in economia schermi flessibili a tecnologia "organica" utilizzando una sottile lamina di plastica. I tempi sembrano quindi maturi ma la sensazione, comune a molti analisti di settore, è che si sia solo all'inizio: gli Oled sono sicuramente in pole position per diventare la tecnologia di riferimento per gli schermi del futuro ma occorrerà ancora qualche anno prima che questa diventi uno standard gradito a tutta l'industria televisiva. Nel frattempo vedremo se cellulari (la Kyocera ha già a catalogo un modello con display Oled), macchine fotografiche digitali (con la Kodak a fare da modello), console per videogiochi e soprattutto lettori multimediali portatili ne saranno l'ideale trampolino lancio. Anche in previsione di prendere il posto degli attuali pannelli Tft montati sui monitor per pc e sui computer portatili.

Un business (sulla carta) da 1,2 miliardi di dollari nel 2010
Quali sono i volumi di business di cui sono accreditati gli schermi Oled? Alcune società di ricerca specializzate, e la NanoMarkets in particolare, ha stimato che il giro d'affari globale degli schermi dalla "luce organica" toccherà quota 10,9 miliardi di dollari entro il 2012 e crescerà oltre i 15,5 miliardi alla fine del biennio successivo (di cui poco meno della metà derivanti dalle vendite ai produttori di cellulari e dispositivi mobili in genere). A fine 2007 questo mercato dovrebbe arrivare a 1,4 miliardi di dollari. I televisori Oled contribuiranno in modo sostanziale a questa "escalation" e stando ai dati della stessa società di ricerca svilupperanno un fatturato di 42 milioni di dollari nel 2008, 436 milioni nel 2009 e 1,2 miliardi entro il 2010. Di sicuro dovranno vincere la concorrenza degli apparecchi Lcd e le consuete diffidenze del pubblico verso una nuova tecnologia, che di suo promette meraviglie sotto il profilo dell'efficienza energetica.

martedì 2 ottobre 2007

Telefonia Voip, arriva il tasto Jajah !

Voip, arriva il tasto Jajah

per far chiamere gli amici gratis


Permette a amici o lettori di mettersi in contatto con il titolare del tasto gratuitamente o ad un costo molto basso senza che questi debba rilasciare il proprio numero di telefono.

Inviare un'email, creare un blog o un sito web e ricevere telefonate dai lettori. Il tutto senza rilasciare un numero personale. Oggi tutto questo è possibile grazie a JAJAH. La Voip company ha infatti lanciato un tasto speciale, Tasto JAJAH appunto, che può essere inserito in email, siti web, blog e nei siti per il social networking quali MySpace, LinkedIn e Bebo.

Permette a amici o lettori di mettersi in contatto con il titolare del tasto gratuitamente o ad un costo molto basso senza che questi debba rilasciare il proprio numero di telefono o altre informazioni personali.

Nessun download, niente cuffie, contratti o costi. Il Tasto JAJAH è stato studiato per essere talmente semplice che chiunque sia in grado di aprire un'email potrà anche chiamare.

Chi chiama dovrà semplicemente inserire il proprio numero di telefono (fisso o cellulare) e la chiamata verrà messa in connessione gratuitamente per chi chiama, gratuitamente o ad un costo molto basso per il titolare del Tasto. Il Tasto può essere aggiunto alle pagine in modo semplice e immediato visitando il sito www.jajah.com.






domenica 30 settembre 2007

Crisi banda larga

Il messaggio che emerge dall'Autorità Garante delle Comunicazioni, nella relazione annuale presentata nei giorni scorsi, è chiaro quanto preoccupante:
in Italia c'è allarme banda larga. Non solo è confermato che per copertura e diffusione siamo ben al di sotto rispetto alla media europea, ma emergono anche fatti nuovi
.


Per esempio che la crescita dell'Adsl (che costituisce il 95 per cento degli accessi banda larga italiani) sta frenando e che i prezzi italiani sono "lontani dalle best practice europee". Il che significa che, pur non essendo tra i più cari, potrebbero essere molto più economici.

Servirebbero maggiori investimenti in fibra, che però invece di aumentare sono calati nel 2006, rileva l'Autorità. Servirebbero 10 miliardi di euro per ridare impulso alla rete, mentre gli investimenti nel 2006 sono stati nell'ordine dei milioni di euro, "il che non è sufficiente nemmeno per assicurare un'adeguata manutenzione della rete per i servizi in atto", scrive l'Autorità nella relazione.

Le cause individuate sono due: scarsa informatizzazione di famiglie e imprese; anomalia di una rete banda larga che, a differenza di quanto avviene negli altri Paesi, dipende tutta solo dal rame, che è un bene nelle mani di Telecom Italia ("monopolio naturale"). Il che accentra troppo questo mercato; rallenta la concorrenza e, di conseguenza, lo sviluppo della banda larga.

Anche le soluzioni sono due: primo, separazione della rete Telecom al più presto, entro fine anno; secondo, un più volenteroso intervento in questo mercato da parte intero sistema Paese. Significa che la banda larga deve essere un problema di cui si deve prendere cura una molteplicità di soggetti.

Gruppi di operatori, in primo luogo, che potrebbero investire in una rete evoluta comune, di cui poi condividere le risorse. Anche lo stato può fare molto, rileva l'Autorità; può continuare a sovvenzionare i progetti nelle aree di digital divide, per esempio. Potrebbe inoltre fare meglio e di più sul fronte delle regole, dando maggiore sprone al WiMax e a tecnologie banda larga alternative, che possano mitigare l'anomalia italiana.

Nelle altre, dove la banda larga c'è ma è troppo accentrata, l'Autorità auspica che ci sia maggiore disponibilità delle Pubbliche Amministrazioni locali: potrebbero contribuire a ridurre i costi necessari a realizzare nuove reti. "Considerato infatti che gli investimenti nelle reti di nuova generazione riguardano in grandissima parte (attorno al 70% del totale!)- scrive l'Autorità nella relazione annuale- le attività relative alle opere civili (scavi, posa della fibra), è evidente l'importanza del momento relativo alla concessione ed al rilascio delle autorizzazioni e concessioni per le opere di scavo e per la condivisione dei cavidotti da parte delle Amministrazioni locali". "E' soprattutto a questo riguardo- si legge ancora- che Governo e Parlamento potrebbero intervenire prevedendo procedure accelerate e automatizzate, che valgano a superare remore, lungaggini, localismi, di cui abbiamo penosa esperienza".

C'è da aggiungere che anche la stessa Autorità potrebbe fare di più: per esempio, accelerando i tempi del bitstream, la riforma Adsl che pure nella relazione è stata individuata come una risposta a questi problemi ma che ancora stenta a partire a causa delle solite polemiche tra Telecom e gli operatori alternativi.


sabato 29 settembre 2007

Voip obbligatorio !!


Ditemi se questa non è una notizia che sa di svolta !

Speriamo solo che siano i fatti (ma soprattutto i conti) a parlare !



Voip obbligatorio

per la Pubblica Amministrazione



(ITnews) - Roma -


VoIP obbligatorio per la pa.
Dal prossimo gennaio, infatti, le amministrazioni centrali sono tenute a utilizzare i servizi «voce tramite protocollo internet», VoIP. È quanto prevede un articolo di una delle ultime bozze della finanziaria che stasera sarà all'esame del Consiglio dei Ministri. Il Cnipa farà verifiche sull'attuazione e nel caso di mancato adeguamento sarà ridotto del 30% l'importo delle risorse stanziate per le spese di telefonia.


venerdì 28 settembre 2007

Nasa - Origini dell'universo

Nasa a caccia delle origini dell'universo


Una sonda studierà gli asteroidi più antichi




WASHINGTON - La Nasa va alla scoperta delle origini dell'universo. Dalla base di Cape Canareval è partito oggi il razzo Delta II che porta nello spazio la sonda Dawn. Non è affatto un lancio di routine, visto che si tratta della prima missione con lo scopo di raggiungere e studiare la fascia di asteroidi che si trovano nel cosmo tra Marte e Giove.


Alla scoperta dell'alba del sistema solare. La sonda spedita nello spazio si chiama Dawn, che in italiano vuole dire alba. Ed è proprio l'alba del nostro sistema solare che i ricercatori vogliono comprendere per mezzo di questa affascinante missione spaziale. La sonda è stata infatti studiata per poter raccogliere informazioni sui primi milioni di anni della sua evoluzione e dei processi allora in atto. Lo scopo è riuscire quindi a caratterizzare le prime fasi del processo di formazione dei pianeti terrestri, cioè i fratelli della Terra.


La sonda studierà i due protopianeti. Per raggiungere questo obiettivo, la missione Dawn andrà a investigare in dettaglio su due dei protopianeti più grandi che sono rimasti quasi intatti dalla loro formazione ma che presentano caratteristiche molto differenti. La questione principale alla quale ci si propone di rispondere è il ruolo della dimensione e della presenza di acqua nel determinare l'evoluzione di un pianeta. Per questo si studerianno Cerere e Vesta, i due asteroidi più antichi, i pianeti neonati la cui crescita, secondo le teorie correnti, fu interrotta dalla formazione di Giove.


La missione costerà 357 milioni di euro. "Ritengo che questa sia la prima, vera sonda interplanetaria", ha commentato Marc Rayman, uno degli scienziati che seguiranno Dawn dal Jet Propulsion Laboratory di Pasadena, in California. "E' la prima volta che abbiamo davvero la capacità di andare in un luogo, fermarci, dare un'occhiata approfondita, passare qualche tempo là e poi ripartire per andare altrove". La missione costa 357 milioni di dollari e la sonda viene spinta da innovativi motori a ioni.


La sonda dispone di uno strumento italiano. Un piccolo ruolo nella missione sarà affidato anche alla tecnologia italiana: Dawn è dotata di uno strumento, lo spettrometro Vir, realizzato da Agenzia spaziale italiana e Istituto nazionale di astrofisica. Occorreranno quattro anni prima che la sonda raggiunga i propri principali obiettivi, gli asteroidi Vesta e Cerere.