Inserisci Infobox

Business con Linux

Una presentazione delle opportunità e dei modelli di business che offrono Linux e l'OpenSource

Linux e Open Source: un business possibile
Autore: al - Ultimo Aggiornamento: 2003-09-25 14:32:33 - Data di creazione: 2003-09-25 14:32:33
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

La comunità di individui che operano, lavorano e agiscono intorno a Linux e l'Open Source è particolarmente variegata, attiva e rigogliosa, riunendo idee e posizioni eterogenee, che vanno dal pragmatismo di programmatori e hacker a cui importa solo l'aspetto tecnico (Linus Torvalds può esserne considerato l'emblema), al purismo di coloro che hanno particolarmente a cuore gli aspetti filosofici e libertari del software libero (Stallman della Free Software Foundation (FSF) è ovviamente l'esempio più evidente), dall'interesse commerciale di varie aziende che hanno abbracciato Linux più che altro per ragioni economiche, all'opportunismo politico di chi vede in questo modo di considerare il software anche l'espressione di una ideologia politica, dall'interesse del privato che vuole usare software gratuito senza violare alcuna legge, a chi propone il Software Aperto come modello di sviluppo vincente (Raymond e l'OpenSource Initiative (OSI)).
Alla varietà di attori, filosofie ed interessi si affianca una certa confusione intorno alle definizioni di Linux, Open Source, Free Software (Software Libero) e alla moltitudine di licenze correlate, ma a prescindere dalle anime e dalle sfumature, alcuni principi, riconducibili alle logiche basilari della GPL, restano alla base di questo sistema e ne delimitano i confini.

Anche se esistono componenti nella comunità del Software Libero che considerano negativamente ogni accostamento del software libero con pratiche commerciali, la GPL stessa non ripudia, anzi, vede con favore, l'utilizzo in ambito commerciale e la vendita di software libero. Le posizioni più rapidcali sono inoltre decisamente superate dalla Open Source Initiative (OSI), che mantenendo i principi base del Free Software, cerca di proporlo in modalità e sotto una luce che risultino più appetibili alle aziende e a chi fa business. Sostanzialmente non ci sono differenze nei modelli di licenza (l'OSI di fatto non fornisce una licenza specifica ma indica tutte quelle licenze, inclusa la GPL, che rientrano nella definizione di Software Aperto), le distinzioni vengono fatte soprattutto a livello filosofico: la Free Software Foundation parla di libertà nell'uso, nella produzione e nella rielaborazione del software, l'Open Source Initiative parla di opportunità e vantaggi economici e pratici che il software con sorgenti aperti offre.

La misconcezione comune, particolarmente favorita nella lingua inglese, è che free stia per gratis: non lo è necessariamente. Free sta per libero, dove la libertà è a vari livelli:
- Utilizzare il software liberamente, senza limitazioni sul numero di volte che lo si utilizza (ma nessuno vieta che una società possa far pagare l'installazione o la distribuzione del software)
- Modificare liberamente il software, avendo libero accesso ai sorgenti e la possibilità di adattarli secondo le proprie necessità (con il vincolo che, se si usa codice GPL altrui nel proprio lavoro, si deve chiaramente indicare chi ha fatto il lavoro originario e chi le modifiche, oltre a dover mantenere una licenza GPL per il proprio prodotto derivato)
- Creare software liberamente, con la libertà di farlo nei tempi e nei modi che si preferisce, senza responsabilità nei confronti degli utilizzatori (responsabilità che nemmeno i produttori di software commerciale si prendono), che dal canto loro hanno il diritto e la libertà di modificare e migliorare autonomamente il software stesso (opzione assolutamente non possibile con software chiuso).

Va chiarito che la GPL rispetta, onora e supporta il copyright: i diritti d'autore, anzi, sono particolarmente tutelati, rispetto a quanto accade per software di pubblico dominio o con licenza BSD.
I modelli di business che si aprono intorno a questo modo alternativo di valorizzare i diritti d'autore sul software sono numerosi: alcuni completamente rivoluzionari e spiazzanti secondo le logiche correnti, in quanto richiedono un vero e proprio cambio paradigmatico su come e dove si attribuisce valore ad un prodotto o un servizio, altri relativamente convenzionali, al punto da potersi affiancare senza particolari stravolgimenti ad attività commerciali in essere.

Per comodità e migliore facilità di comprensione, ha senso dividerli in due principali categorie:
- Modelli di business basati su Linux quali la fornitura di soluzioni a valore aggiunto per VAR e VAD, la formazione e divulgazione, la consulenza, l'uso di Linux in propri prodotti elettronici ecc.
- Modelli di business basati sull'OpenSource quali la realizzazione di software dedicato rilasciato al cliente con una licenza tipo GPL, lo sviluppo di progetti Web basati su librerie GPL ecc.

E' probabile che un business basato su simili presupposti possa essere genericamente meno produttivo in termini strettamente economici, quantomeno in tempi medi, di altri business convenzionali.
E' oltremodo vero che si basa su aspetti collaborativi e orientati al progresso comune che vanno oltre (ma non escludono) il mero profitto, e si distanziano nei fatti e nelle idee dallo spirito rapace, predatorio, violentemente competitivo e di fatto dannoso per il progresso umano che sembra permeare molti modelli economici imperanti, probabilmente destinati, a lungo andare, ad un rovinoso fallimento.

Modelli di business basati su Linux
Autore: al - Ultimo Aggiornamento: 2003-09-24 16:06:24 - Data di creazione: 2003-09-24 16:06:24
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

Sul fatto che Linux costituisca una opportunità di business non ci sono dubbi: esistono società quotate al Nasdaq, come RedHat o Va Linux che basano interamente il loro fatturato su Linux, esistono giganti dell'informatica che l'hanno abbracciato e lo sostengono pesantemente (IBM, Oracle per fare solo due nomi), esistono migliaia di piccole e medie realtà informatiche che lo utilizzano e lo propongono ai loro clienti.
I modelli di business che si prospettano sono per certi aspetti convenzionali e comuni, per altri alternativi e in qualche modo rivoluzionari.
Vediamo i modi e i player che possono lavorare con Linux:

ISV - Indipendent Software Vendor
Per chi produce software commerciale Linux è un normale sistema operativo su cui è possibile basare il proprio prodotto. La sua diffusione sul lato server è tale da giustificare investimenti e raggiungere una massa critica di clienti, sul desktop, probabilmente, i numeri non sono ancora interessanti, ma sono in molti a scommettere che sono destinati a crescere fortemente.
Va sottolineato che chi produce proprio software per Linux non ha particolari vincoli o limiti alla possibilità di venderlo con una licenza proprietaria e non è obbligato a mettere a disposizione i sorgenti.
Lo diventa nel momento in cui INCLUDE nel proprio software parti di codice rilasciato con licenza GPL o nel momento in cui prende un progetto GPL e lo modifica e adatta ai propri scopi.
Quando questo succede scatta inesorabile e doveroso il vincolo forte di questa licenza: tutto il software modificato va rilasciato con la stessa licenza GPL e i diritti d'autore dei rispettivi autori mantenuti.
Per quanto alcuni vogliano far passare questa caratteristica della General Public Licence come una "viralità maligna" che impedisce di fare business con il software libero, questo principio è di fatto ovvio e sacrosanto, in pratica non rende possibile prendere codice di altri, modificarlo, includerlo in un proprio progetto e rilasciare il progetto stesso con una licenza proprietaria e chiusa, rivendicandone di conseguenza anche i diritti d'autore e le relative proprietà intellettuali.
Per inciso, la licenza BSD o il software di pubblico dominio permettono questo, la GPL no e, a ben vedere, non senza ragioni: nessuno deve poter "rubare" codice di altri e beneficiarne direttamente senza ricambiare il beneficio alla comunità, rilasciandolo a sua volta mantenendo la stessa licenza.
Chi ha necessità di utilizzare parti di codice GPL nei propri progetti e al contempo intende rilasciarlo con licenza proprietaria senza rendere pubblici i sorgenti, deve cercare di tenere separate le parti derivate da GPL (e continuare a rilasciarle sotto GPL, con tral'altro i vantaggi in termini di sviluppo e supporto del caso) da quelle completamente proprie ed autonome.
In questo caso si parla di software "associato" e non derivato, dove del codice proprio può utilizzare librerie o parti di codice GPL ben separate e in qualche modo indipendenti.
Esistono numerosi esempi di società che hanno praticato un simile approccio, rilasciando parte del loro lavoro sotto GPL e parte sotto licenza proprietaria. IBM con WebSphere ne è un chiaro esempio: il prodotto si basa su Apache che ha una licenza aperta, ma contiene parti proprietarie che IBM rilascia con una normale licenza chiusa.

VAR - Value Adder Resellers e VAD - Value Added Distributors
Chi lavora nel canale di vendita di hardware o di soluzioni software ha ormai da tempo acquisito le strutture, le professionalità e l'operatività per fornire servizi a valore aggiunto ai propri clienti. Per questi attori il business rimane incentrato sulla attività di rivendita affiancata alla fornitura di soluzioni complete, dove l'hardware o il singolo prodotto software è solo una parte di una commessa.
In questi casi fornire soluzioni basate su Linux diventa una logica conseguenza di un modello di business già praticato, che non richiede stravolgimenti nelle proprie strutture, se non l'aggiornamento delle competenze del proprio personale tecnico. Il vantaggio più evidente di Linux, in questo caso, è la mancanza di un costo per la licenza, che comporta per il rivenditore maggiori margini per il proprio valore aggiunto, ma in realtà altri vantaggi si sommano: una maggiore facilità di amministrazione e gestione remota, una stabilità e sicurezza probabilmente maggiori (a condizione che le procedure di installazione e aggiornamento vengano eseguite a regola d'arte), la maggiore possibilità di fornire contratti di assistenza tecnica e di erogarli più facilmente da remoto.
L'assistenza e il supporto del produttore è comunque garantita e acquistabile (generalmente a prezzi concorrenziali) da chi realizza la distribuzione adottata, per cui ci si può rivolgere anche ai clienti più esigenti offrendo soluzioni certificate e supportate dalla casa madre.

Consultants
La quantità crescente di server Linux in circolazione richiede degli amministratori di sistema in grado di installarli, configurarli e gestirli. Se è vero che è fondamentalmente più semplice gestire un server Windows, data la presenza di semplici tool visuali di configurazione, è anche vero che le problematiche di sicurezza, stabilità e performance di un server richiedono competenze comunque elevate e skill tecnici approfonditi in qualsiasi caso.
Società e singoli professionisti che offrono servizi di consulenza possono implementare per conto dei loro clienti soluzioni basate su Linux utilizzando hardware relativamente meno costoso e tendenzialmente senza costi di licenza per il software.

Corsi, divulgazione e formazione
Il fermento intorno a Linux è evidente, l'informatica è diventata troppo diffusa ed importante per poter rimanere vincolata ad un monopolio di fatto che mantiene i prezzi del software di consumo artificiosamente alti.
Il numero di persone che si avvicinano a Linux per curiosità, interesse, studio o lavoro è destinato a crescere e quindi cresce la domanda di formazione.
In Italia esistono ormai una decina di riviste esclusivamente dedicate a Linux e all'OpenSource e praticamente tutte le riviste di informatica hanno sezioni e notizie sul "Pinguino", i libri tradotti o scritti direttamente in Italiano sono centinaia, molte sono le società, le scuole e gli enti di formazione che offrono corsi su Linux.
Il mercato in questo senso è già maturo, per certi aspetti saturo, ma comunque in espansione e quindi offre ancora opportunità e spazi.
Oltre alla formazione professionale specialistica, per amministratori di sistema e tecnici qualificati su Linux, esiste un campo ancora poco esplorato ma destinato a crescere con l'affermazione di Linux sul desktop: la formazione per gli utenti finali, l'uso di strumenti come OpenOffice e di interfacce grafiche per il desktop com KDE e GNOME.

Produttori di dispositivi elettronici
Per chi produce dispositivi elettronici di qualsiasi natura, Linux costituisce una inaspettata e flessibilissima risorsa. E' un sistema operativo robusto, stabile e con un esteso supporto di device hardware diversi. Può essere reso molto snello e leggero e quindi si presta anche ad essere utilizzato in dispositivi embedded, per l'elettronica di consumo o qualsiasi altro campo, in cui di fatto quello che si vende è il prodotto fisico e non il software che ne gestisce le funzionalità.
La possibilità di utilizzare Linux e stimolare l'interesse di una moltitudine di appassionati, apre prospettive, funzionalità e possibilità di espandibilità enormi, al punto, in certi casi, da far diventare un oggetto elettronico particolarmente versatile, un vero e proprio culto con una schiera di appassionati in grado di utilizzarlo per gli scopi più disparati (cosa c'è di meglio per chi questo oggetto lo produce?).
Linux si trova in dispositivi quali (si limitiamo a citare i nomi più famosi):
- Palmari (Sharp Zaurus, IBM e-LAP e molti altri);
- Telefoni cellulari e smartphone (Motorola A760, Ericsson cordless webpad/phone);
- Telefoni IP based (Panasonic IP-phone, Aplio/PRO IP Phone, snom 100 VoIP phone);
- Videocamere basate su IP (Axis, Mobotix);
- Videoregistratori digitali (Tivo, Sony CoCoon, NEC AX10, HP Digital Entertainment Center);
- SetTopBox (Motorola DCT5000);
- Autoradio (PhatNoise PhatBox, Empeg car audio player);
- Videoterminali per l'Home Automation (Philips iPronto);
- Decoder satellitari (Dreambox);
- Router, firewall, wireless access points, PBX digitali (Toshiba Wireless Mobility Server, BlueLAN, Zultys MX1200 PBX e molti altri);
- Console da videogiochi (Playstation2 e, tramite hacks, X-box);
- Robot (Wakamaru, Fujitsu HOAP-1, NASA Personal Satellite Assistant)
e poi orologi digitali, web pads, terminal server e una quantità crescente di variegati dispositivi elettronici.

Linux nella PMI: Vantaggi e Svantaggi
Autore: al - Ultimo Aggiornamento: 2004-10-15 15:50:17 - Data di creazione: 2004-10-15 15:50:17
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

Analizziamo come Linux si presta ad essere utilizzato in piccole e medie aziende la cui attività non è necessariamente collegata all'informatica.
In questi contesti tipicamente esistono vari computer desktop, basati su Windows, che vengono utilizzati dal personale locale, uno o più server interni (per la condivisione di file e stampanti, per una eventuale Intranet con gestionale accessibile via Web ecc.) e, in certi casi, uno o più server pubblici (posta elettronica, sito web ecc.).
Il personale tecnico che gestisce i sistemi può essere una figura interna "riadattata" per l'occasione, in quanto più competente di altri nell'uso dei computer o qualcuno con competenze specifiche e approfondite.
In molti casi ci si avvale del supporto di fornitori esterni per soluzioni informatiche, assistenza e consulenza.

VANTAGGI
- Il costo delle licenze. Inutile sottolinearlo, tutti i principi di libertà di utilizzo e le precisazioni sulla natura della GPL, di fatto impallidiscono di fronte alla prospettiva che Linux è gratis. Si possono installare tutte le versioni che si vogliono tutte le volte che si vuole, almeno per quanto riguarda i prodotti standard per le distribuzioni più comuni. Notare che non tutte le distribuzioni Linux sono sempre gratuite ed hanno termini di licenza che ne permettono il libero utilizzo e duplicazione.
- Il costo del software, per quanto questo rientri parzialmente sul punto precedente, va sottolineato che di Linux non è gratis soltanto il sistema operativo strettamente parlando, ma anche tutti gli applicativi più diffusi: strumenti di Office Automation, grafica, web design, tool si sviluppo, uso di Internet ecc.  
- Il costo dell'hardware necessario per supportare il sistema operativo è generalmente più limitato, in particolare per server o router/firewall basati su Linux. Su sistemi Desktop, invece, le esigenze sono paragonabili a quelle di Windows.
- L'aggiornamento è gratuito, non si è costretti ad aggiornare ogni pochi anni il parco macchine o a sottoscrivere un contratto di abbonamento per il software, anche se Linux commerciali hanno adottato una logica di licencing basata su "abbonamenti" a servizi online di aggiornamento.
La compatibilità verso il passato sui formati dei file è maggiormente garantita dal rispetto di standard aperti.
- Il sistema è più stabile e longevo. E' difficile vedere Linux bloccarsi completamente, sia su un server che su un client. Se questo succede spesso il motivo va ricercato in qualche malfunzionamento dell'hardware (memoria, riscaldamento processore ecc.). E' inoltre meno soggetto ad una progressiva "degradazione" dell'integrità generale del sistema, con il passare del tempo e l'utilizzo. Un sistema Windows, a suo modo, invecchia con l'uso e tende a diventare gradualmente più pesante ed instabile (voci di registro orfane, programmi poco utili caricati all'avvio ecc.).
- L'amministrazione remota e la gestione del parco macchine è facilitata dalla possibilità di gestire l'installato via console remota, di aggiornarlo automaticamente senza disservizi e downtime, di redistribuire in modo piuttosto semplice su un parco macchine vasto anche software custom.
- La sicurezza è migliorata, soprattutto sul lato desktop, dove virus, worm, spyware e dialer non costituiscono, quantomeno per il momento, un pericolo reale.
- Si utilizzano standard aperti non proprietari, non si è vincolati ad un singolo fornitore e alle sue politiche di lock-in per trattenere clienti. Questo vale sia per il prodotto che per i servizi accessori e l'assistenza.
- La migrazione è trasparente sul lato server, richiedendo solo l'intervento su sistemi centralizzati e basandosi su software Open Source che ormai garantisce grande interoperabilità con il mondo Windows (in questo Samba è un elemento chiave).
- E' possibile preservare l'investimento fatto sul software Windows esistente con strumenti quali Rdesktop (Terminal Service Client per Linux) e Wine (una implementazione OpenSource delle API di Windows che di fatto permette di eseguire molti programmi di Windows sotto Linux, a velocità simili (non si tratta di una emulazione software), mantentendo compatibilità molto buona, suppur non assoluta).
- Non si rischiamo multe per l'uso di software copiato (o clonato). Non c'è l'incubo, a volte creato con pubblicità aggressive e in parte fuorvianti, di incorrere in gravi sanzioni per aver installato più o meno consapevolmente una copia di troppo di Windows o di un qualsiasi programma (magari solo per prova o per momentanee necessità contingenti) o perchè un dipendente ha autonomamente installato software non originale.
- E' possibile percorrere migrazioni graduali da un network basato su Windows ad uno basato su Linux. In questo senso l'adozione di software Open Source disponibile sia su Windows che su Linux può essere un primo passo: applicativi di uso comune come OpenOffice, Firefox/Mozilla, Thunderbird possono da subito essere usati su desktop Windows per abituare gli utenti alle loro interfacce (generalmente simili alle controparti Microsoft), inoltre esistono tecnologie (NoMachine, realizzata da italiani, ora integrata in KDE, per esempio) che permettono di eseguire in modo trasparente all'utente da un ambiente Windows una applicazione remota che gira su un server Linux.

Precisazioni
Alcune dei vantaggi riportati sono di fatto possibili e forniscono le loro migliori prospettive in installazioni e migrazioni fatte allo stato dell'arte. In particolare la migrazione sul lato client va considerata con molta attenzione e per essere il più possibile indolore:
- Il sistema informatico (gestionali vari) dovrebbe essere basato su web, mainframe o comunque su sistemi centralizzati in modo tale che non ci debbano essere applicativi custom da migrare o emulare ma soltanto un interfaccia utente basata su software dalle funzionalità note (browser, client di posta, terminale ecc.);
- Il parco macchine è meglio che sia simile, in termini di hardware e uguale in termini di distribuzione e versione utilizzata;
- Va assolutamente previsto un sistema centralizzato di aggiornamento del software automatico, amministrazione e gestione remota, delivery di software aggiuntivo (su Linux questo è possibile senza costi per prodotti particolari e con sforzi tecnici relativamente limitati);
- E' possibile, in certi casi auspicabile e necessario, mantenere ambienti ibridi. In particolare il lato server è la prima parte da considerare per una migrazione in quanto può risultare trasparente agli utenti, mentre il lato client va gestito con attenzione e adeguata preparazione.

SVANTAGGI
- Per quanto siano stati grandi i progressi e sia stata comunque raggiunta una certa maturità, sul desktop Linux è ancora indietro rispetto a Windows in quanto a facilità d'uso, supporto di periferiche, integrazione degli strumenti comuni e accessibilità da parte di personale non esperto.
- Una migrazione sul desktop può essere difficile e problematica, sia per la resistenza degli utenti, sia per le obiettive difficoltà a cui può andare incontro personale inesperto, senza opportuna e comunque costosa formazione, sia per le difficoltà potenziali di scambio documenti con partner commerciali (gestire documenti .doc sotto Linux è possibile, ma la compatibilità non è completa). E' un costo iniziale che va preventivato e risulta attenuato da una adeguata preparazione e dalla buona predisposizione degli utenti.
- Il parco software è più limitato, per quanto la varietà di applicazioni Open Source e anche commerciali sia notevole, Linux, su alcuni settori in particolare, manca della completezza di alcuni programmi disponibili su Windows: in particolare nelle aree del Publishing (nulla di paragonabile a Xpress o Illustrator), della grafica (Gimp è un ottimo prodotto, ma non vale un Photoshop), del web design (Dreamweaver è ancora inarrivabile) e della musica professionale. Gli strumenti Office di base (Editor di testi, foglio di calcolo ecc.) alternativi a MS Office (OpenOffice, Star Office, KOffice... ) sono comunque ottimi e sicuramente all'altezza per tutte le funzioni comuni e di fatto maggiormente utilizzate.
Il vero problema emerge quando si deve lavorare su formati proprietari Microsoft, per i quali la compatibilità è buona ma non ancora ottimale e si possono avere problemi nella conversione dei documenti.
- Maggiori costi di supporto e assistenza sul desktop da parte di consulenti e fornitori esterni sono inoltre prevedibili, almeno in una fase iniziale o in assenza di forti competenze interne su Linux. Questo fattore è destinato a scendere con il tempo e l'aumentare degli skill interni (eventualmente tramite corsi di formazione, che comunque costituiscono un costo).
- Il parco delle distribuzioni Linux è frammentato al punto che adottare su sistemi client diverse distribuzioni Linux può rivelarsi problematico, sopratutto in aziende dove non esistono adeguati skill interni. Esistono situazioni paradossali, per esempio, in cui lo stesso documento creato con OpenOffice, anche in versione PDF, viene visualizzato in modo diverso su distribuzioni diverse: questo può essere inaccettabile e conferma la necessità di mantenere un parco macchine allineato.
- La minaccia SCO. Francamente non sarebbe il caso di considerare la guerra che SCO sta facendo a Linux e all'OpenSource (mascherata da battaglie legali a IBM e altre società) come una seria minaccia o svantaggio per chi lo utilizza. Chiunque abbia seguito le vicende ed abbia un po' di conoscenze tecniche sull'argomento si rende conto che SCO sta facendo un inaccettabile "terrorismo propagandistico" che di fatto ha danneggiato l'adozione di Linux su larga scala.
Anche se il caso si sta sgonfiando, il problema non è di sostanza ma di apparenza e in alcune società si aspetta a valutare Linux come alternativa a Windows perchè non si sa ancora come potrà essere il futuro di Linux e se per il suo utilizzo si debba pagare qualcuno che ne rivendica i diritti. Va considerato che, proprio per far fronte a questa (remotissima) prospettiva, varie società che distribuziono Linux, fra cui RedHat e Novell, offrono copertura legale da eventuali recriminazioni SCO per chi compra i loro prodotti.

GPL: Diritti e limiti di una licenza libera
Autore: al - Ultimo Aggiornamento: 2004-10-15 17:21:56 - Data di creazione: 2004-10-15 17:21:56
Tipo Infobox: TIPS - Skill: 1- NOVICE

Molte misconcezioni, confusioni e luoghi comuni a volte sbagliati circondano la GPL e la sua interpretazione.
Cerchiamo di mostrare, con esempi pratici, cosa la GPL permette di fare e cosa non permette, elencando casi comuni per sviluppatori, web designer, produttori e utenti normali.
Notare che alcune sfumature variano a seconda delle licenze che in genere si applicano all'Open Source, la GPL, in genere è la più "estrema" e la più diffusa, altre introducono limitazioni (ad esempio se si usa MySQL in un proprio prodotto software commerciale, vanno riconosciute agli autori delle royalty) o variazioni sul tema.

COSA SI PUO' FARE
- Installare, copiare, distribuire, vendere tutto il software GPL che si vuole tutte le volte che si vuole.
- Prendere il codice di un prodotto GPL, adattarlo, modificarlo, utilizzarlo per fare un proprio prodotto e rilasciare il proprio prodotto derivato sotto GPL (quindi mantenendo anche i riferimenti e i diritti degli autori originari).
- Produrre software proprietario che giri su Linux senza doverlo rilasciare sotto GPL. Questo codice può eseguire e fruire delle normali chiamate di sistema (ovviamente) e può utilizzare librerie di terzi se queste sono rilasciate con licenza LGPL (una versione più "leggera" della GPL che permette, in particolare, l'uso di librerie libere da parte di codice proprietario).
- Realizzare siti Web in PHP, PERL, HTML o in qualsiasi linguaggio si vuole senza doverli rilasciare sotto GPL (ma senza aver utilizzato librerie, parti di codice e funzioni di altri).
- Si può realizzare e vendere software mantenendo una licenza GPL ad un cliente, mettergli a disposizione i sorgenti ma non renderli gratuitamente scaricabili da tutto il mondo (ma il cliente o chiunque ne entra in possesso può fare di questo software tutto quello che la GPL permette). In questo caso la distribuzione è limitata al proprio cliente e comunque richiede la messa a disposizione dei sorgenti e dei diritti e libertà della GPL.
- Si può realizzare un sito web tenendone riservato il codice anche se si incorpora, tenendone ben separate le parti di codice, un progetto GPL di terzi (esempio un forum o una chat: ma se di questi viene modificato o adattato il codice, il proprio codice derivato, relativamente e limitatamente a questi progetti, è soggetto ai termini della GPL).
- Si può realizzare software proprietario associato a software GPL, avendo accortezza di tenere ben distinte le parti proprietarie dalle parti, derivate da codice GPL, che si devono distribuire secondo le logiche della GPL.
- Configurare, installare e vendere soluzioni informatiche basate su Linux (server, firewall ecc)

COSA NON SI PUO' FARE
- Prendere del codice GPL, incorporarlo o modificarlo in un proprio prodotto e rilasciare questo con licenza proprietaria  (di fatto sarebbe come rubare il lavoro di altri senza farlo ritornare alla comunità).
- Prendere del codice GPL, incorporarlo in un proprio prodotto GPL e rimuovere le note di copyright degli autori originari.
- Prendere del codice proprietario e rilasciarlo in un prodotto GPL (la comunità OpenSource rispetta i diritti d'autore di terzi).

Modelli di business basati sull'OpenSource
Autore: al - Ultimo Aggiornamento: 2003-09-19 18:34:18 - Data di creazione: 2003-09-19 18:34:18
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

--to do--

Open source: a r/evolution in ths software industry
Autore: salvino - Ultimo Aggiornamento: 2004-10-15 23:31:36 - Data di creazione: 2004-10-15 23:31:36
Tipo Infobox: TIPS - Skill: 1- NOVICE

Dopo otto mesi di ricerca, è pronto il final report che evidenzia l'impatto economico dell'Open Source sull'industria del software ma sopratutto sul conto economico delle aziende che lo adottano. Una ricerca approfondita, ricca di dati e di analisi.

Il report "Open Source : a r/evolution in the software industry ?" di circa 225 pagg puo essere scaricato assolutamente gratis dal sito personale di Andrea Salvaggio: http://www.salvaggio.net/index.php?page=publications&cat=report.

Al termine di circa otto mesi di ricerche, il documento finale evidenzia come il software open source stia avendo notevole impatto sul settore, specialmente dal punto di vista degli utenti business. La ricerca, quindi, dedica uno spazio limitato all’aspetto "filosofico" dell’open source come modello di produzione comunitaria di software (poiche esistono gia’ tantissime pubblicazioni in riguardo) ma si concentra sulla dimensione economica del fenomeno, molto meno nota. Analisi di costi, di return su investimenti, di modelli organizzativi di migrazione, studi comparativi formano l'ossatura del documento.

Garantire l'accesso alle nuove tecnologie
Autore: kbonasia - Ultimo Aggiornamento: 2013-05-10 18:42:29 - Data di creazione: 2004-12-06 15:02:38
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

Per garantire l'accesso alle nuove tecnologie non bastano i computer: occorre anche un'adeguata formazione.

Per gran parte dell'ultimo decennio, leader politici e sociologi si sono mostrati sempre più preoccupati della differenza tra coloro che hanno accesso a computer e Internet e coloro che non ce l'hanno.

A metà degli anni novanta, l'amministrazione degli Stati Uniti ha coniato una definizione per questa situazione di diseguaglianza informatica: digital divide. Con questo termine non solo si indicano le disparità tra nazione e nazione, ma anche all'interno di aree della medesima nazione. Guardando al panorama internazionale, nella maggior parte del continente africano meno dell'uno per cento della popolazione è on line.

Come prevedibile, questa discriminazione è strettamente correlata ad altri fattori economici e sociali.

Un italiano che naviga su Internet una volta al mese da una biblioteca di quartiere potrebbe essere considerato un non utente digitale, mentre un cittadino di un paese in via di sviluppo risulterebbe come utente on line. Questo deriva dai differenti criteri di valutazione adottati per definire il digital divide. Altrettanto erroneamente si può essere indotti a pensare che sia la mancanza di personal computer e connessioni Internet a determinare il gap.
Recenti campagne (pubblicitarie, più che educazionali) dapprima negli Stati Uniti e poi come sempre clonate in maniera nostrana, si sono concentrate sull'evidenziare i vantaggi del dare un computer (portatile negli USA, fisso in Italia) ad ogni bambino, senza però preoccuparsi di offrirgli una solida base per utilizzarlo. Questa concezione è nota negli ambienti accademici come determinismo tecnologico.
Essa si basa sull'idea che la possa la semplice presenza della tecnologia condurre ad un suo utilizzo comune e familiare e quindi innescare cambiamenti sociali. In virtù di questo intendimento si sono spesi milioni di dollari fornendo computer e accessi ad Internet in posti dove le necessità primarie sono di che mangiare o curare le malattie.
I peggiori fallimenti si verificano come sempre quando si cerca di affrontare problemi sociologici molto complessi concentrandosi soltanto sulla fornitura di equipaggiamento (d'altro canto, non riesco a liberarmi dall'idea che certe iniziative, non tutte ovvio, ma la maggior parte siano l'ambiguo intendimento di penetrare nuovi mercati utilizzando come facciata la filantropia e la beneficenza nei confronti dei meno abbienti: un popolo tecnologicamente evoluto domani comprerà bibite in lattina rossa e scarpe con il famoso baffo, jeans firmati e televisori al plasma...).
Come si conviene alle operazioni di marketing neo-colonialista cui sempre più spesso assistiamo, favorito dall'enorme connivenza della maggior parte dei mass media che sistematicamente vengono coinvolti in questo genere di operazioni (gli introiti pubblicitari sostengono numerose testate radio-televisive, non dimentichiamolo), l'iniziativa del National Institute of Information Technology, nel 1999 in India, venne annunciata a suon di fanfara come rivoluzionaria: storie fantasiose circolarono su Internet a proposito di come questi bambini imparassero da soli a usare il computer e avessero così abbattuto le barriere dell'anafalbetismo e di conseguenza della fame. Un esperimento per fornire l'accesso ad Internet ai bambini di una delle aree più povere della città di New Delhi.
I computer si trovavano all'interno di una cabina blindata, ma i monitor e i joystick e i tasti erano accessibili. Applicando l'approccio minimalista, il test non coinvolgeva né istruttori né insegnanti; permettendo l'accesso ai bambini senza restrizioni e durante tutto il giorno, si supponeva una migliore fruizione poiché più conciliabile con i ritmi dei bambini stessi.
L'amara realtà era invece che la connessione ad Internet era inefficiente, i computer erano letteralmente murati ad una parte anziché installati in una stanza su una più comoda scrivania e, ancora più sorprendente, i computer erano dotati di joystick e di tasti, non di tastiere... il che alla fine determinò che i bambini avevano appreso l'uso del calcolatore, ma di quel calcolatore, divenendo abili con il joystick e i tasti (proprio come una specie di bancomat nostrano ma senza il tastierino numerico: solo tre-quattro tastoni colorati...), ma senza programmi educativi e con contenuti prevalentemente in inglese (siamo in India, non dimentichiamolo, la lingua principale è l'hindi).
Insomma, si era prodotta una schiera di ottimi video giocatori... un fiorente potenziale mercato per consolle con logo a forma di X... e inutili quanto costosi giocattoli iper tecnologici che anche da noi imperano oramai in ogni dove spesso istigando alla violenza. In breve si giunse alla conclusione che l'educazione minimamente invasiva era nella pratica anche minimamente efficace. Un progetto alternativo, cosiddetto di informatica di comunità è il progetto Gyandoot, che nella lingua locale (siamo sempre in India), significa proprio trasmissione della conoscenza, è stato lanciato nel 2000.
Ancora una volta l'azione viene mirata su quella parte di popolazione che è vittima della malnutrizione e dell'anafalbetismo, ancora una volta si adotta la metafora del chiosco dove è possibile utilizzare i computer. In questo caso però è stata posta maggiore attenzione sullo sviluppo dei contenuti, studiati appositamente per questo progetto (che quindi era una specie di intranet più che un sistema per dare libero accesso ad Internet).
Tra i contenuti diffusi con il sistema Gyandoot, vi erano informazioni relative ai prezzi dei prodotti agricoli, campagne di informazione sanitaria oppure un servizio reclami, per fare presente i propri problemi (evidentemente questi messaggi venivano letti sul serio, contrariamente a quanto accade dalle nostre parti per molti URP et similia... perché i servizi governativi cominciarono a migliorare). Del personale a disposizione presso i chioschi era in grado di aiutare anche gli analfabeti o chi aveva poca dimestichezza con i computer.
La fornitura di tecnologia ben pianificata e a basso costo combinata con lo sviluppo dei contenuti e con campagne di educazione dirette allo sviluppo sociale è sicuramente un'alternativa valida a quei progetti che si limitano a piantare un computer come fosse una pianta da frutto ed aspettare che qualcosa cresca. Ancora una volta la tentazione di riportare paragoni nostrani, specie per certe iniziative di incentivazione tecnologica, in particolare per l'Italia meridionale, annunciate in pompa magna ad ogni scadenza elettorale, è fortissima; ma esula dal contesto. Questo secondo esempio dimostra come persone di differente estrazione sociale hanno accesso all'informazione digitale con modalità molto diverse tra loro, e di solito come parte di reti sociali che coinvolgono parenti, amici e colleghi. Il grado di istruzione fornisce una buona analogia: in esso non si presenta affatto questa divisione bipolare tra coloro che non possono in ogni caso e coloro che non possono. Esistono infatti livelli di istruzione per fini pratici, professionali, letterari e scolastici. E le persone diventano istruite non con la disponibilità fisica dei libri ma attraverso l'educazione, la comunicazione, i rapporti di lavoro, la famiglia e le reti sociali. In modo simile, la tecnologia può essere opportunamente sfruttata per aumentare e migliorare programmi e progetti sociali già esistenti.
Il punto fondamentale di tutta la questione è che non esiste alcuna diseguaglianza informatica a due valori né un singolo fattore che possa determinare - o risolvere - questa divisione. La tecnologia non esiste come variabile da inserire dall'esterno per ottenere certi risultati. Esiste solo nell'intreccio di sistemi e processi sociali. E, da una prospettiva politica, l'obiettivo di portare la tecnologia ai gruppi emarginati non serve semplicemente per superare una divisione tecnologica, ma piuttosto per favorire un processo di integrazione sociale. Il raggiungimento di questo obiettivo implica non solo i computer e i collegamenti ad Internet ma anche lo sviluppo di contenuti rilevanti nelle diverse lingue, la promozione dell'istruzione e la mobilitazione di supporti sociali e istituzionali. La tecnologia diventa così un mezzo, e spesso potente, piuttosto che un fine. E' importante notare che l'Amministrazione Bush sta tagliando i fondi ai programmi che promuovono l'accesso alla tecnologia. Qualcuno potrebbe obiettare che tali tagli sono giustificati poiché non esiste alcuna disuguaglianza informatica; questo ragionamento è specioso almeno quanto le semplicistiche soluzioni basate sul concetto di disuguaglianza.
Le strategie politiche non dovrebbero più essere concepite in termini di superamento di divisioni: la combinazione di forniture di tecnologia attentamente pianificate, contenuti rilevanti, educazione e supporto sociale migliorati possono incrementare il patrimonio che è già proprio della comunità.
In alcuni casi le risorse finanziarie per promuovere questi progetti sono fornite da chi ha un interesse più o meno celato: compagnie di software piuttosto che Governi miranti all'orientamento politico di determinate fasce della popolazione (e di consumatori). Anche se esistono eccezioni alla regola. Un'esperienza da portare ad esempio è quella condotta dal gruppo Prodigi: impegnato sul fronte internazionale con l'obiettivo di creare in Italia un organismo capace di sviluppare strategie efficaci e a largo raggio per combattere l'esclusione digitale e aprire la strada a nuovi percorsi di sviluppo autonomi e rispettosi delle diversità culturali.
In Tunisia hanno dei laboratori informatici reperendo i fondi con varie modalità: buona parte provenienti dall'autofinanziamento dei volontari e degli organizzatori, integrati da contributi di altre ONG (organizzazioni non governative) partner nel progetto. Questo progetto ha anche una valenza temporale inferiore ai primi due citati: nell'arco di sole tre settimane sono stati realizzati parallelamente tre differenti corsi di formazione, studiati per rispondere alle esigenze espresse dalle comunità locali e per garantire la sostenibilità dei laboratori al termine del progetto. Nell'orientare la formazione, infatti, è stata riservata maggiore importanza al ruolo che i diversi beneficiari avrebbero dovuto svolgere al termine dell'iniziativa piuttosto che alle loro competenze pregresse.
Infatti, rispetto ad un approccio più tradizionale, che avrebbe portato a dividere gli allievi tra un corso di "base" e uno "avanzato", a seconda del loro curriculum, è stato preferito un atteggiamento che attribuisse maggior peso ai compiti che ognuno avrebbe dovuto svolgere all'interno della proprià comunità, una volta formato. Quindi, così come l'esperienza di Gyandoot, il contatto con il territorio si è rivelato un aspetto essenziale sia per lo svolgimento delle attività che per il futuro dei laboratori.
Un ulteriore aspetto interessante dell'iniziativa Prodigi è l'attenzione particolare posta nei confronti del software open source. Due esperti di software libero tunisini sono stati coinvolti fin dall'inizio e grazie ad un seminario in arabo sul software libero (quindi finalmente la lingua locale compresa dai destinatari dell'iniziativa, non il solito francese o inglese) ha consentito di mettere in contatto realtà che probabilmente non si sarebbero mai incontrate e rappresenta tutt'ora una garanzia di sostenibilità del progetto da prendere ad esempio per iniziative similari.
Ad esempio è stata posta particolare attenzione anche alla localizzazione delle tastiere e del software utilizzato, adottando il francese, comunque la seconda lingua in Tunisia, oppure l'arabo, dove possibile. Infine, un aspetto che merita un approfondimento a parte è quello che sempre più spesso, per iniziative di questo genere, ma non soltanto, alla decisione di introdurre l'uso del software libero si affianca quella di riutilizzare i calcolatori e le risorse tecnologiche dismesse o altrimenti destinate a divenire rifiuti speciali.

Ricerca e Open Source: quale futuro per l'Italia?
Autore: kbonasia - Ultimo Aggiornamento: 2004-12-06 15:01:56 - Data di creazione: 2004-12-06 15:01:56
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

Mai come in questi ultimi anni il termine innovazione tecnologica è apparso tante volte sui giornali o sulle riviste specializzate e mai come in questi ultimi anni, nel nostro paese soprattutto, questo termine è divenuto frequente nei discorsi di imprenditori, politici e rappresentati delle organizzazioni sindacali.
La necessità sociale dell'innovazione tecnologica è stata riscoperta, dopo anni di torpore e di teorie non vincenti ancora oggi, purtroppo, in auge. La crisi economica e industriale hanno messo in discussione molti dei principi sui quali era basata la politica industriale sul modello anni '60, orientata a relativamente facili incrementi di potenzialità produttiva quale conseguenza di una forte domanda di beni di consumo e di investimento.

Ci sono molti studi che approfondiscono sapientemente la questione, più semplicemente vorrei invitare ad una riflessione sui risvolti del "codice aperto" come uno degli aspetti della filosofia di condivisione delle conoscenze, alla quale mi sono avvicinato da qualche anno. Piuttosto che porre l'attenzione sul valore scientifico della creazione o dello sviluppo di nuove tecnologie, ritengo opportuno focalizzare l'aspetto secondo me più importante: quando l'innovazione diviene elemento basilare per il raggiungimento del fine economico di un'impresa.
Oggi in parecchi non si spiegano come mai colossi dell'industria dell'informazione si siano "gettati" nel mondo di "Linux", condividendo le idee di Stalmann e di quelli che come lui sostengono le "libertà del software", apparentemente in contrasto con le dure leggi del profitto. Ci si chiede da più parti come possa competere sul mercato un'azienda che rivela il suo prezioso bagaglio di conoscenze agli altri (concorrenti) senza chiederne niente in cambio? Quanto potrà durare il "fenomeno" Linux/Open Source? (mi si perdoni l'accostamento, visto che si tratta di due argomenti complementari ma distinti).
Il processo di innovazione tecnologica esula dal concetto più limitante che in genere si dà alla "progettazione" pura e semplice, ma con la quale si è tentati a volte di farla coincidere. Essa coinvolge un ciclo molto più ampio e più complesso di accadimenti sia dal punto di vista organizzativo sia, di conseguenza, dal punto di vista economico: coinvolge infatti non soltanto la progettazione, l'ingegnerizzazione e la produzione vera e propria, ma trova la sua giustificazione, la sua ragione di essere, nella ricerca di mercato, nell'analisi cioè della domanda e nell'individuazione di reali o possibili bisogni.
In termini econimici classici, a ciascuna fase del procedimento di sviluppo di un prodotto, e cioè: la conoscenza di una domanda potenziale, la ricerca e sviluppo del prodotto finalizzata a soddisfare la domanda potenziale di mercato, l'ingegnerizzazione del prodotto delineato dalla ricerca, l'allestimento e l'avvio della produzione e l'avvio della commercializzazione, corrispondono certe entità di spesa.
In genere l'ingegnerizzazione e l'avvio della produzione assorbono anche più della metà della spesa globale delle fasi operative prima citate, specialmente quando si parla di produzione manifatturiera di grande serie, e oggi la produzione di "pacchetti software" è ad essa assimilabile per molti versi.
Si corre tuttavia il rischio di sottovalutare altri aspetti non meno importanti, come la ricerca appunto, giacché essa, rapportata al fatturato ha una entità piccola e quindi non sembra rivestire grande importanza. Spesso mi sento ripetere durante il mio lavoro quotidiano: "qui non siamo scienziati... dobbiamo produrre soluzioni in tempi brevi e a costi accettabili...". Ma proprio questa fase, invece, è quella che caratterizza le aziende ad alto contenuto tecnologico, come appunto quelle "informatiche", sebbene normalmente gli investimenti per la ricerca non superino il 5-10% del fatturato annuale, è proprio la ricerca che condiziona più profondamente il risultato finale, in termini economici, del prodotto. In un'azienda di servizi, poi, il concetto si enfatizza ancora di più giacché il "prodotto" è proprio il dipendente e non quello che il dipendente fa o dice... anche se sfugge a parecchi questo sottile concetto (e quindi si tende, ad esempio, a spendere poco o niente in corsi di aggiornamento professionale o in "supporti" per migliorare le condizioni di lavoro e l'appagamento del dipendete per quello che compie).
Specialmente oggi, in una situazione in cui la produzione industriale classica ristagna, specie nei settori di prodotti ad alto contenuto tecnologico, e in presenza di una continua riduzione dei prezzi dei componenti base in funzione dell'innovazione tecnologica, la ricerca e lo sviluppo, finalizzate alla realizzazione di un prodotto finale tale da poter reggere il mercato in termini di prezzo e di prestazioni, richiede un'assoluta attenzione e la capacità di operare ai livelli più sofisticati.
L'approccio iniziale ai problemi della ricerca, ed in particolare il modo in cui essa è impostata e realizzata da parte di un operatore economico, o in termini più generali, da un'impresa qualunque sia la sua dimensione, è determinante per i risultati finali della relativa iniziativa industriale. Infatti l'elemento che influenza buona parte parte della realizzazione vincente di un progetto, in termini economici, risale a parecchi mesi dal momento in cui esso entra in produzione, e cioè al momento in cui si è cominciato a pensare al progetto stesso.
È inutile cercare tutti gli accorgimenti per effettuare un piano di riduzione dei costi a livello di produzione se esso viene praticato su di un progetto che ha in sé gli elementi per generare comunque un prodotto finale che costa di più di quello della concorrenza. Se il progetto viene meno a questa esigenza, quindi, fallisce l'obiettivo di rispondere al mercato adeguatamente e l'azienda potrebbe trovarsi in grave difficoltà.
Questo risultato però è molto più frequente di quanto si pensi, l'insuccesso di molti progetti spesso proviene da cause legate all'uso comune di intendere la ricerca come associata direttamente al fatto che genera certi risultati, confondendola quindi con la ricerca industriale. È necessario fare una distinzione pratica e di principio tra i due concetti.
La differenza sostanziale consiste nel fatto che nel moderno concetto industriale la ricerca pura, o fondamentale, è quella che viene perseguita nei laboratori accademici, nelle università o da enti privati. È quindi quella orientata a raggiungere risultati di conoscenza senza che tali risultati siano pianificati in funzione del raggiungimento di specifici fini economici (anche se oggi l'orientamento del MURST mi sembra sia esattamente questo... impiegare enti di ricerca pura come "succursali" dei centri di ricerca delle industrie, quindi finalizzando ogni ricerca al profitto e vincolandola fortemente - in altre parole, scaricando su enti pubblici o simili i costi dei centri di ricerca dell'industria privata).
La ricerca industriale, più specificatamente la ricerca applicata è invece intrapresa e pianificata per l'ottenimento di particolari e concreti vantaggi di carattere economico, sociale o di altro tipo comunque inerenti alla soddisfazione di particolari bisogni. È chiaro come sia la ricerca pura, di solito, che produce grandi scoperte, ed a questo proposito mi sovviene una frase di Marx che rilevò che "una storia critica della tecnologia dimostrerebbe in genere quanto piccola è la parte di un singolo individuo in una invenzione qualsiasi".
La ricerca industriale deve essere vista e valutata esclusivamente in funzione dell'apporto che essa offre al raggiungimento degli obiettivi aziendali. L'invenzione e una nuova scoperta e la definizione di un nuovo concetto o di una nuova idea attraverso l'elaborazione di una nuova teoria scientifica. L'innovazione è il processo attraverso il quale un'invenzione o un'idea viene praticamente trasformata e realizzata in un prodotto.
L'invenzione è altrimenti spiegabile come la prima utilizzazione tecnologica di una specifica idea e di un certo processo del sapere scientifico. Da quanto detto si evince che la funzione di ricerca e sviluppo nell'azienda deve rappresentare il tramite tra il mondo interno dell'impresa e quello esterno e cioè verso una comunità scientifica nazionale ed internazionale. La sua organizzazione deve essere quindi tale da favorire al massimo l'affluenza di informazioni tecniche da quel grande patrimonio che è costituito dalla conoscenza tecnologica oggi disponibile ancora più "facilmente" grazie ad Internet. L'open source, o meglio, le conoscenze acquisite da chi si adopera nella ricerca e nel miglioramento continuo di qualcosa adottandone i principi libertari, è un enorme patrimonio tecnologico, oggi finalmente fruibile a costi così bassi, pressocché nulli, che chiunque può essere al tempo stesso, fruitore delle idee scientifiche e "scienziato".
L'accostamento di un appassionato di tecnologia ad un ricercatore in camice bianco può fare rizzare i capelli a qualcuno, certo. Prima ancora di leggere Stalmann e l'ampia bibliografia sul tema "software libero", da semplice appassionato di astronomia mi accorgevo che sovente anche gli astrofili davano il loro contributo, in rapporto ai mezzi sicuramente inferiori di cui dispongono, alla comunità internazionale degli astronomi di professione. La conoscenza è patrimonio comune di tutta l'umanità e in quanto tale non dovrebbe essere "rivenduta".
La condivisione di programmi per calcolatore a sorgente aperto (open source) permette quindi ad una azienda qualsiasi, non solo informatica, se si estende il concetto stesso di "software" inteso come "conoscenza", di scambiare continuamente esperienze tra i tentativi di soluzioni dei problemi interni e le informazioni che arrivano dall'esterno. È essenziale per una buona riuscita del processo che nell'ambito aziendale vi siano dei "gate keeper", cioè degli organismi che rappresentano le "antenne tecnologiche" mediante le quali catturare le informazioni giuste nei tempi giusti, in una condizione odierna di sovraccarico della quantità di informazioni disponibili (veritiere o meno).
L'attività di queste unità aziendali, o di queste persone, ha un'importanza primaria nel generare e mantenere il necessario afflusso di informazioni per lo sviluppo delle idee. Evidentemente un'azienda di grandi dimensioni, che produca prodotti di sofisticata tecnologia, quale potrebbe essere un'azienda nel settore dell'informatica con produzione di computer ad alto livello o che produca componenti elettronici ad alto contenuto innovativo, dovrà dare una particolare attenzione in termini organizzativi e di investimenti alla ricerca e sviluppo.
Questo è quello che secondo il mio modesto parere si sono detti i manager di una famosissima azienda internazionale di computer che oggi sostiene massivamente il mondo "Linux"... non credo sia difficile intuire a chi mi riferisco. L'azienda in questione è riuscita a superare momenti di crisi e di rinnovamento del mercato grazie alla capacità dei suoi manager di sentire in anticipo, valutare correttamente le informazioni e soprattutto, con alle spalle una consistente ricerca (anche in settori apparentemente distanti dal "core business" per il quale i più la conoscono. Mi riferisco ad IBM.
Difatti gli investimenti in ricerca e sviluppo, che per definizione devono essere "alti" nelle aziende che operano nell'informatica, possono sembrare abbattersi se ci si "rivolge" al mondo open source, come se in un certo senso si "diluissero" i costi della ricerca sui numerosissmi individui che operano in questo modo scrivendo codice o pensando processi innovativi. Non è questa, purtroppo, a mio modo di vedere, la giustificazione dei "vantaggi" dell'open source, non è "il non costo" che sembra caratterizzare qualsiasi cosa nasca sotto l'egida open source (e difatti a torto spesso viene confuso con il concetto di software gratuito - free software). Il vantaggio dell'open source è quello di prescindere dalla dimensione aziendale e di riuscire nel contempo a mantenere il passo con la concorrenza puntando più che sull'innovazione tecnologica, sulla capacità di mantenere una fetta significativa del mercato grazie alla propria capacità di produrre prodotti e componenti già assestati, a costo inferiore rispetto ai concorrenti. È singolare il caso della cosiddetta "piccola industria a conduzione famliare" italiana, che sembra tanto vincente anche all'estero, giacché nonostante le piccole dimensioni di queste aziende, esse riescono a sopravvivere nel mercato globale.
Anche una realtà medio-piccola del settore informatico, attingendo all'open source, focalizzandosi su una buona organizzazione produttiva, processi snelli, e lucrando particolari condizioni di favore in termini di costo delle risorse o della mano d'opera, ad esempio, potrebbe competere sui mercati internazionali alla stregua di queste nostre piccole e medie imprese che vendono prodotti italiani nel mondo.
Nel caso specifico, la "mano d'opera" diviene non più mera esecutrice, ma patrimonio aziendale. È quindi la risorsa umana e non il software prodotto, ad essere la vera ricchezza dell'azienda, che può in questo modo permettersi il "lusso" di elargire a terzi, e sembra un controsenso, addirittura senza immediati ritorni economici, il proprio codice sorgente.
In verità, l'azienda non "cede" la risorsa umana, che è quella che può generare codice sorgente sempre migliore e sempre efficiente... Questo concetto è durissimo da fare assimilare a chi fino a ieri ha studiato sui libri canonici che l'operaio è un "mezzo" e non il fine della produzione, rispetto al "prodotto" che esso produce.
Perchè lo Stato dovrebbe sostenere l'open source?. In un paese in cui la ricerca scientifica trova possibilità di finanziamento e di incentivi da parte dello Stato le necessità di creare tali capacità all'interno dell'azienda sono ovviamente minori, in quanto gli operatori economici, concorrendo attraverso le spese dello Stato al conseguimento di un tale risultato, possono usufruire di ritorno, per così dire, dei benefici di una tale attività collettiva. In quei paesi in cui lo Stato finanzia, per propria necessità comunitaria, gli studi e gli sviluppi in determinate tecnologie, e mi riferisco non soltanto USA del periodo Clinton-Gore (molto intelligentemente attenti a questi temi), non solo le aziende interessate possono usufruire direttamente di tali benefici, in modo diretto come finanziamento alla ricerca ed aiuto alla produzione di prodotti innovatori, ma anhe le altre aziende non direttamente coinvolte dal programma finanziato dallo stato possono godere del "fallout tecnologico", della ricaduta cioè della conoscenza che comunque, da tali operazioni, viene distribuita sul tessuto sociale del paese.
La struttura propria di ricerca e sviluppo di un'azienda dipende anche dal grado di sviluppo tecnologico in senso generale del paese stesso o della zona geografica del paese in cui l'azienda deve operare: in un paese ad alto livello tecnologico la presenza di istituti privati e pubblici, di università e di enti di ricerca può indubbiamente facilitare l'acquisizione di know-how da parte dell'azienda e non richiedere quindi al suo interno la presenza di un gruppo di ricercatori troppo grande.
Si può persino giungere all'apice del processo, e cioè che lo Stato divenga "esportatore" di conoscenza verso altri stati che abbisognando di risorse umane altamente specializzate, possono "comprare" da università o enti di ricerca per produrre poi "tecnologia". Mi riferisco a quello che accade in India, dove la conoscenza "viene" riacquistata dagli USA, principalmente, sottoforma di programmi universitari, scienziati e ricercatori, che vanno a trasmettere agli indiani quelle "matere prime" che altrimenti non avrebbero o che costerebbe troppo (tempo soprattutto) ottenere. Un po' come comprare il petrolio o le automobili per muoversi... solo che qui le autostrade sono "quelle dell'informazione" e arrivano dappertutto a costi molto bassi...
Capita sempre più spesso difatti di trovarsi ad utilizzare codice open source scritto in nazioni considerate "terzo mondo! dal punto di vista industriale classico. Il vantaggio è però che mantenendo la "mano d'opera" in un'altra nazione, alla quale si vende solo il know-how, i costi di gestione rimangono in quella nazione, è insomma un modo per accrescere le quote di mercato, invadendo, pacificamente in un certo senso, altri paesi, giacché la regolabasilare dell'economia mondiale attuale, è l'invasione dei mercati per sopravvivere, essendo comunque destinati a morire non appena tale mercato si verrà a saturare. Inventando sempre nuovi mercati si procrastina di volta in volta questa "morte annunciata".
Pur essendo, quindi, la funzione di ricerca e sviluppo abbastanza simile in qualsiasi tipo di azienda, le sue strutture, il suo costo in termini di impegno economico e di struttura organizzativa variano molto da azienda ad azienda, da paese a paese, da settore a settore e nella singola azienda nell'ambito del settore. I problemi di carattere interno all'azienda dipendono in parte, come abbiamo visto, dalla situazione esterna in cui tale azienda si trova. Ma vi sono anche dei motivi tipici dell'azienda che ne condizionano l'atteggiamento verso i problemi di ricerca e sviluppo. Se ne potrebbero citare molti, ma secondo me i più importanti sono l'origine dell'azienda; l'atteggiamento del management verso i problemi dell'acquistare piuttosto che produrre e l'atteggiamento "interno".
Se il fondatore dell'azienda era un ricercatore o un tecnico di grandi capacità, l'azienda molto probabilmente risentirà della verticalizzazione, per così dire, della ricerca nella persona dell'imprenditore, e così la struttura dei laboratori sarà orientata, soprattutto se la produzione è in qualche modo una diretta conseguenza dell'innovazione tecnologica, o dell'invenzione, dell'imprenditore. Mi riferisco a casi come Microsot, Lotus, Sun, Apple, Oracle, ma anche Ferrari, ad esempio.
Al contrario, un'azienda in cui non esista un simile figura i laboratori di ricerca rappresentano l'evoluzione di più discipline e di più ricercatori: da qui la necessità di un articolato organigramma e di sistemi di informazione interna che dovranno supplire alla mancanza di una spinta basata sull'io dell'imprenditore-inventore, è il caso della IBM. Il management si sostituisce in questo caso all'iniziativa puramente personale.
L'atteggiamento del management delle moderne aziende verso i problemi dell'acquistare piuttosto che produrre (make or buy) deriva dal fatto che alcune aziende ritengono vantaggioso e più facile reperire il know-how per ottenere certi risultati mediante ampie politiche di acquisizione di attività già avviate o di centri di ricerca. È il caso di HP, ad esempio. Infine, l'atteggiamento "interno" delle aziende alimentano nei confronti della ricerca e sviluppo caratterizza anche l'entità degli investimenti che l'azienda è portata a realizzare per la ricerca e sviluppo, come nel caso di CISCO.
Per concludere, l'importante, pur tenendo nel debito conto i problemi derivanti dalle differenti situazioni sopra indicate, è che la ricerca e sviluppo all'interno di un'azienda sia correttamente impostata in funzione dei risultati che l'azienda vuole ottenere e della strategia che essa si è scelta; importante è che essa, tenuto conto di tali obiettivi, riesca ad ottenere un alto grado di efficienza, abbia cioè la capacità di usare nel modo più profiquo le proprie e delle altrui capacità.

Il protocollo informatico nelle Pubbliche Amministrazioni
Autore: kbonasia - Ultimo Aggiornamento: 2005-12-15 21:18:59 - Data di creazione: 2005-09-21 09:21:01
Tipo Infobox: DESCRIPTION - Skill: 1- NOVICE

L'archiviazione digitale diventa una realtà.

La gestione del flusso documentale rappresenta una grossa opportunità per il cittadino ma specie per la Pubblica Amministrazione, perché in questo modo la trasparenza e l'accessibilità diventano fattive.

Il legislatore definisce protocollo informatico come "l'insieme delle risorse di calcolo, degli apparati, delle reti di comunicazione e delle procedure informatiche utilizzati dalle amministrazioni per la gestione dei documenti", ovvero, tutte le risorse tecnologiche necessarie alla realizzazione di un sistema automatico per la gestione elettronica dei flussi documentali.

Ogni sistema di protocollo informatico, che si intende adottare o realizzare, deve ottemperare a specifiche indicazioni, riportate nel Testo Unico (DPR 445/2000).

Nell'ottobre 1998, il Capo dello Stato ha emanato un regolamento con le norme per la gestione del protocollo informatico da parte delle amministrazioni pubbliche, specificando che entro cinque anni, a partire dal primo gennaio 1999, le Pubbliche Amministrazioni avrebbero dovuto provvedere a realizzare o revisionare dei sistemi informativi automatizzati finalizzati alla gestione del protocollo informatico e dei procedimenti amministrativi in conformità al regolamento pubblicato sulla Gazzetta Ufficiale del 14 dicembre 1998 ed alle disposizioni della legge 31 dicembre 1996 numero 675, nonché dell'articolo 15 comma 2 della legge 15 marzo 1997 numero 59, e dei relativi regolamenti di attuazione.

In generale per un piano di automazione del protocollo prevede l'assolvimento di compiti quali l'attribuzione di un numero progressivo a ciascuna pratica, legato ad una data ben precisa e corredato di tutti gli elementi essenziali per la sua gestione quali l'oggetto ed i dati anagrafici dei mittenti e destinatari; passando per l'assegnazione del documento all'unità organizzativa interna che avrà il compito di gestirne l'iter richiesto per giungere possibilmente all'archiviazione in formato del tutto digitale dei documenti, riducendo al minimo indispensabile la parte cartacea.

Come si evince si tratta di funzionalità abbastanza semplici, che possono essere implementate progressivamente attraverso un'applicazione modulare, possibilmente che supporti formati aperti ed interoperabili, come XML e realizzata in un ambiente web in una rete privata virtuale. Ciò nonostante, questo cambiamento comporta un notevole impatto organizzativo e di evoluzione nella metodologia di lavoro. L'obiettivo finale quindi non è tanto l'archiviazione o l'uso di strumenti informatici sostitutivi di quelli tradizionali, bensì principalmente modificare le organizzazioni di lavoro per renderle più efficienti; ottemperando al DPR 445 del 2000 (in materia di documentazione amministrativa) e da quanto previsto dalla direttiva 2002 del Ministero per l'Innovazione e delle Tecnologie.

Per alcune amministrazioni costituirà soltanto una piccola modifica rispetto alla realtà operativa attuale, probabilmente perché già utilizzano applicazioni informatiche per la protocollazione e la gestione documentale in generale, sebbene siano da rivedere in merito all'aderenza alle specifiche richieste dalla normativa, per altre amministrazioni, invece, si tratterà di recuperare in un arco di tempo estremamente piccolo, il terreno perduto, giungendo ad allinearsi con gli standard nazionali ed europei, senza inciampare, e questo dovrebbe essere un vantaggio competitivo non indifferente, in esperienze fuorvianti.

In merito al protocollo informatizzato, inserendolo in un contesto più ampio di trasparenza amministrativa e di offerta di servizi di qualità superiore nei confronti del cittadino, è quindi possibile tracciare, tra l'altro, l'iter di una pratica. Termine non appropriato ma efficace. Non basta dire che l'ufficio è aperto al pubblico in tali giorni e in tali orari, ma bisogna avvicinare l'informazione alla sede del cittadino, al quale, come portatore di diritti soggettivi, verrà data la possibilità di accedere al sistema informativo per conoscere lo stato della sua pratica, naturalmente attraverso le opportune protezioni e previo accertamento del suo interesse specifico a un determinato procedimento. Ovviamente, un sistema ben realizzato, impedirà l'accesso ai documenti che riguardano un altro cittadino o che non trovino interesse riconosciuto a livello del singolo, secondo quanto previsto dalla normativa sulla privacy.

Le interfacce tipicamente a disposizione potranno essere i totem informativi negli uffici della Pubblica Amministrazione oppure l'accesso da Internet. Si tratta di una grossa opportunità per il cittadino ma specie per la Pubblica Amministrazione, perché in questo modo la trasparenza e l'accessibilità diventano fattive. Il protocollo informatico aggiunge delle potenzialità non presenti nella protocollazione tradizionale: ad esempio dà la certezza che un documento è entrato nel sistema amministrativo della struttura, quindi fornisce una certezza di tipo giuridico. Con il protocollo informatico ci sono molte altre funzionalità connesse alla ricerca, all'identificazione dell'ufficio di assegnazione e all'ufficio che lavora il documento. C'è inoltre la possibilità di accludere il fascicolo, virtuale, naturalmente e sono comprese tutte le funzioni di scambio delle informazioni e di ricerca che il protocollo cartaceo non consente.

Dal protocollo cartaceo si può sapere quando un documento è arrivato, chi l'ha spedito e viceversa quando è stato inviato e a chi. Con il protocollo informatico sono invece previste anche le funzioni di classificazione, non solo in funzione all'oggetto, ed è inoltre possibile ottenere la reportistica, per esempio sul tempo che intercorre tra la registrazione e la classificazione, sui segmenti procedurali in ritardo, può essere individuata una sofferenza temporale e conoscere quanti sono gli atti elaborati dai singoli elementi dell'unità organizzativa, consentendo quindi di rimodulare i carichi di lavoro.

La protocollazione non è una funzione a sé stante e non è la segnatura sul foglio con il numero progressivo, ma è l'inizio di un procedimento amministrativo: si protocollano tutti i documenti che hanno un contenuto di procedimento e pertanto deve trattarsi di una funzione diffusa. Non ha senso l'esistenza di uffici di protocollo; si protocolla all'interno dell'unità organizzativa, magari affidando a una persona l'incarico di protocollare - questo non è escluso - eliminando comunque i tempi di attesa che si avevano con il passaggio del documento bollato dall'ufficio di protocollo a quello di competenza.

A livello attuativo, infine, si presentano alcuni fattori di criticità, principalmente riassumibili in uno di carattere organizzativo, dove l'unica leva è quella della sensibilizzazione del personale, perché questi progetti funzionano esclusivamente se c'è accettazione e condivisione degli obiettivi, mentre l'altro è inerente alle infrastrutture informatiche. Per ciò che riguarda le infrastrutture è essenziale un discorso di connettività alla rete, considerando che un'installazione web non richiede molte risorse.

Privacy Policy