Cloud Computing 2013 (come navigare senza una mappa)

Traduzione della ricerca curata da Di David S. Linthicum di GigaOM

 

Introduzione
Il 2012 è stato un altro periodo di crescita per il Cloud computing e la maggior parte dei fornitori ha guadagnato una buona fetta di un mercato sempre in crescita. Abbiamo visto alcune interruzioni, altre acquisizioni e molto Cloud washing.

Nel complesso, lo stato del Cloud computing è ancora guidato dalla confusione. Non ci sono mappe o percorsi chiari da seguire verso l’adozione per il successo della nuvola, ma a molte persone viene richiesto di intraprendere questa avventura. Nel 2012 CEO, CIO, CTO e consigli di amministrazione hanno spinto aziende IT per comprendere meglio il Cloud. Questo ha portato a molte organizzazioni Global 2000 IT a testare il Cloud computing con piccoli progetti non strategici. Il vero lavoro, però, inizierà nel 2013.

Allo stesso tempo, le piccole imprese non possono ottenere abbastanza Cloud computing. Dati i vincoli di bilancio e sull’impulso a fare di più con meno, le piccole imprese sono diventate il più grande segmento di crescita nel mercato  del Cloud computing. Mentre Amazon Web Services, Google, Microsoft, Rackspace hanno aperto la strada, nuovi arrivati nel Cloud cominciano a colmare le lacune tecnologiche.

Nel 2013 le organizzazioni IT che supportano le grandi imprese dovranno capire come ottenere con successo sistemi mission-critical su piattaforme di Cloud pubblici e privati. Molti amano guardare agli attuali colletti bianchi di Oracle, IBM, SAP o altri grandi fornitori di software. Ma c’è una nuova serie di aziende come Amazon che devono prendere in considerazione.

Le imprese più grandi stanno aspettando i player più consolidati. Alcuni troveranno il successo nel Cloud, ma molti non saranno in grado se non nel 2013. Perché? Vendere tecnologia come servizio con un modello pay-per-use è un enorme cambiamento culturale confrontato con gli accordi di licenza multimilionari chiusi 10 minuti prima di mezzanotte alla fine del quadrimestre. Il Cloud sarà così dirompente che ucciderà le grandi aziende che attualmente dominano il mercato.

gigaom-2013-cloud

Seguire le tendenze e tecnologie per il nuovo anno

Il modo in cui l’industria utilizzerà la tecnologia Cloud computing nel 2013 non è una questione di previsione, ma più una questione di seguire i modelli di adozione e le tendenze esistenti nel nuovo anno. Tali tendenze, discusse in dettaglio qui di seguito, sono:

  • La crescita continua e l’accettazione del Cloud orientato all’utente
  • L’utilizzo di Cloud pubblici per i piccoli progetti tattici all’interno di grandi imprese
  • L’aumento costante degli standard
  • L’unione di big data e risorse basate sul Cloud
  • Il trasferimento in un Cloud privato chiamato “ibrido”
  • La richiesta del perdono del Cloud non il permesso
  • L’ascesa di Cloud specifici del settore
  • L’annebbiamento tra IaaS e PaaS
  • La sicurezza e la governance nel Cloud da non essere pensato ai ripensamenti

 

La crescita continua e l’accettazione del Cloud orientato all’utente.
Questo si riferisce alla crescita di fornitori come Dropbox, Box, iCloud di Apple ed altri che si concentrano sulla fornitura di servizi di storage Cloud per i consumatori normali, di tutti i giorni. Dropbox si è vantato di un grande sviluppo recente, ma tutti potrebbero essere esposti a una quantità enorme di interesse nel 2013, sia per gli utenti finali che per le le aziende che cercano di trovare il modo di sincronizzare i propri file tra desktop, laptop, tablet e smartphone. Contando poi sulle nuove funzioni nel prossimo anno, come il supporto per sistemi integrati all’interno di automobili e televisori intelligenti e, si spera, nuove caratteristiche di sicurezza.

 

L’utilizzo di Cloud pubblici per i piccoli progetti tattici all’interno di grandi imprese.
Le aziende del Global 2000 nutrono ancora una sfiducia nei Cloud pubblici, e continueranno nel 2013 a sfruttarli solo per le piccole necessità tattiche come lo stoccaggio. L’avversione dei Cloud pubblici continuerà sulla base di paure infondate. Ci vorrà del tempo, non la tecnologia, per correggere questa errata percezione. Grandi Cloud IaaS faranno leva, tra cui Amazon Web Services, Google e Rackspace, ed alcuni useranno il nuovo servizio di HP.

 

Continuano ad aumentare gli standard Cloud.
OpenStack e CloudStack continueranno a raccogliere interesse nel 2013, e le imprese cercheranno di muoversi tra le nuvole che promettono di evitare il temuto lock-in. Tuttavia, per sfruttare appieno le tecnologie OpenStack e CloudStack nel 2013, sarà necessario impegnarsi in un ecosistema piuttosto che un esempio di una determinata tecnologia. Così, nel 2013, non sarà possibile evitare effetti di lock-in nonostante le promesse. Nel 2013 le imprese non guadagneranno molto nel senso di una nuvola veramente aperta. Piuttosto, i veri vincitori saranno i fornitori di tecnologie che cercano di entrare nella nuvola non partendo da zero. E’ disponibile una base di codice IaaS, così come il supporto di una comunità in crescita. Coloro che otterranno il massimo dall’uso del OpenStack e dagli standard CloudStack saranno Cloudscaling, Citrix, Rackspace, Nebula e Piston Cloud, così come i grandi player quali IBM e HP.

 

L’unione di big data e risorse basate sul Cloud.
Questa fusione verrà accelerata nel 2013. Questo comprende l’aspetto di database aziendali multi-petabyte che cominceranno ad apparire in Cloud pubblici. Questo aspetto si verifica per un paio di motivi fondamentali, compreso il costo per sostenere un cluster Hadoop altamente distribuito e la necessità di elasticità a sostegno di usi molto intensi dei dati. Per lo più questo sarà l’analisi di base e il collegamento di tali analisi torna ai processi di business. I Cloud IaaS saranno a beneficio dei più grandi, tra cui Amazon Web Services e Rackspace. Tuttavia, la maggior parte delle nuvole IaaS vedranno questa tendenza e la fornutura o miglioramento di big data per guidare più in profondità questo mercato.

 

Il trasferimento in un Cloud privato chiamato “ibrido”.
Questa tendenza sarà il modo in cui verrà venduto il Cloud computing nel 2013. Non si vuole passare ad un Cloud pubblico. Tuttavia, è anche vero che non si vuole ammettere che ci stiamo spostando verso un Cloud privato, dal momento che molti nel settore non li considerano Cloud reali. Ci stiamo spostando a un Cloud privato in modo che “un giorno” sarà possibile collegarsi a un Cloud pubblico, in questo modo è possibile sostenere che stiamo andando verso un ibrido.

Mentre questo è l’approccio corretto per molte imprese, il loro rifiuto di utilizzare i servizi Cloud pubblici toglie gran parte del valore del Cloud computing. Tuttavia, la realtà è che la perdita del Cloud computing si verifica su Cloud privati ​​con la visione di sfruttare Cloud pubblici in futuro. Non importa cosa pensi di Cloud privati​​, continueranno a crescere nel 2013, con aziende come Eucalipto, Cloudscaling, Nebula.

 

La richiesta del perdono del Cloud non il permesso.
Nel 2013 vedremo un sacco di Cloud computing sfruttato all’interno delle grandi imprese attraverso progetti come l’utilizzo di un Cloud pubblico IaaS per soddisfare le esigenze di storage o la costruzione di una applicazione aziendale su un provider pubblico PaaS. I progetti vengono usati al di fuori del controllo delle imprese IT. Questi progetti saranno le applicazioni create su piattaforme PaaS, come Engine Yard, Red Hat ed Elastic Beanstalk di Amazon. Oppure saranno realizzati su archivi in affitto da Rackspace o Google. Qualunque sia la ragione, gran parte della crescita del Cloud computing del 2013 sarà frutto non del settore IT ma di quello business che intende risolvere dei problemi. Troveranno con il Cloud computing il percorso migliore per raggiungere i loro obiettivi. Il settore IT dovrà quindi essere tirato in mezzo successivamente in molti di questi progetti. Pensiamo che questo succederà alla fine del 2013 quanto le aziende lo richiederanno.

 

L’ascesa di Cloud specifici del settore.
Per il prossimo anno vedremo la nascita di IaaS e PaaS maturi e Cloud appositamente costruiti per servire specifici mercati verticali, quali assistenza sanitaria, finanza, vendita al dettaglio e produzione. I fornitori di Cloud computing avranno questo approccio per soddisfare le esigenze della specializzazione in sicurezza, processi e requisiti di conformità per ciascun mercato verticale, nonché vendere più prodotti in quei mercati.

 

L’annebbiamento tra IaaS e PaaS.
Nel 2013 le nuvole IaaS continueranno ad aggiungere servizi PaaS, come Elastic Beanstalk mostrato in Amazon Stack. Vedremo anche i player PaaS offrire servizi di tipo IaaS. Per esempio, Google App Engine ha già iniziato ad offrire questi servizi con l’aggiunta di storage, database e applicazioni di hosting ad alta capacità. Questa tendenza continuerà nel 2013, come quelli che scelgono i prodotti PaaS cercare servizi più olistici da fornitori PaaS e IaaS, tanto che queste due distinte classificazioni di Cloud computing si fonderanno in un solo tipo di servizio.

Mentre questo era solo un trend nel 2012, la combinazione di questi servizi è una conclusione scontata nel 2013. E’ una buona notizia per i player più grandi che possono permettersi di acquistare o costruire servizi aggiuntivi. E ‘ovviamente una cattiva notizia per quelli più piccoli che devono attaccare le nicchie. Quindi, contiamo su una grande quantità di attività di fusioni ed acquisizioni in questo 2013.

 

La sicurezza e la governance nel Cloud da non essere pensato ai ripensamenti.
Mentre eravamo così concentrati solo su sistemi Cloud funzionanti, la pianificazione della sicurezza e della governance si sono perse per la strada. Nel 2013 l’industria risolverà molte di queste sviste, e sicurezza e governance cominceranno ad avere più senso e ricevere maggiore attenzione dalle applicazione Cloud-based. Nel 2013 ci sarà una rinnovata attenzione per la sicurezza, in particolare sulle tecnologie che forniscono sicurezza identity-based, comprese Ping Identity e Symplified. Per la maggior parte delle imprese si tratta di un cambiamento fondamentale nel modo in cui gestire, governare e proteggere i propri sistemi centrali. A un certo punto le soluzioni di sicurezza semplici e tradizionali si sono adattate bene. Tuttavia, oggi dobbiamo fare i conti con servizi, hardware, dati, utenti e dispositivi mobili, anche attraverso l’uso di approcci basati sull’identità. Il Cloud governance è un po’ più complesso, e l’area di lavoro crescerà notevolmente nel 2013. E’ sulla gestione delle risorse e la creazione di criteri automatici per fare in modo che tutto venga fatto, monitorato e controllato. I tipi di offerte e di tecnologia all’interno del mercato di oggi variano notevolmente, con le aziende leader tra cui RightScale, enStratus e Layer 7. Ancora una volta, tutti hanno approcci molto diversi alla Cloud governance e la gestione Cloud computing.

 

 

Crea la tua mappa per il 2013

Il mondo del Cloud computing continuerà a crescere con dei modelli molto familiari nel 2013. Questo tipo di tecnologia non verrà adottato immediatamente, e la maggior parte della crescita sarà costante e sostenibile. La rivoluzione del Cloud computing sarà più di una evoluzione, e ho il sospetto che sia la cosa migliore. Il modo per essere pronti per l’emergere di Cloud computing nel 2013 è di dare uno sguardo in profondità a dati, processi, carichi di lavoro e applicazioni, per determinare quali saranno le necessità. Dare priorità allo sforzo di guardare il potenziale per il Cloud computing nelle aree IT che beneficeranno maggiormente dell’uso di queste tecnologie, che si tratti di pubblico, privato o ibrido. Comprendere le risorse disponibili, considerare ciò che si può davvero realizzare dopo il 2013 e quindi impostare un percorso.

Un 2012 pieno di successi per Linux

E’ stato un anno fantastico per Linux:

  • Linus Torvalds è stato insignito con una delle più alte onorificenze in ambito tecnologico, il Millennium Technology Prize.
  • Linux Foundation ha lanciato CloudOpen, un evento andato subito esaurito.
  • Red Hat ha raggiunto il traguardo di 1 milardo di dollari.
  • Android ha superato tutte le altre piattaforme su smartphone e si è fatto strada tra i tablet.

Unisciti a noi nel celebrare questo meraviglioso anno per Linux attraverso questo video di Linux Foundation che ti invitiamo a condividere.

Linux Professional Institute plaude al report delle Nazioni Unite

Il Linux Professional Institute plaude alla pubblicazione del rapporto “The Information Economy Report 2012: The Software Industry and Developing Countries” della Conferenza delle Nazioni Unite sul Commercio e lo Sviluppo (UNCTAD). Il rapporto fornisce raccomandazioni specifiche su Free e Open Source Software (FOSS) per i responsabili politici nazionali e comprende due esempi del valore della formazione LPI e programmi di certificazione per lo sviluppo ICT.

“Siamo lieti di essere inclusi in questo studio di riferimento sui fattori chiave nello sviluppo globale del software in continua evoluzione e del come il nostro programma LPI ha svolto un ruolo importante nello sviluppo del settore IT all’interno di alcune aree geografiche del mondo”, ha detto Jim Lacey, presidente e CEO di LPI. “Questo rapporto è anche esemplare per la comunità del Software Free ed Open Source in quanto riconosce come le soluzioni FOSS possano essere in grado di offrire opportunità di esportazione di tecnologia e fornire soluzioni per le esigenze locali di software all’interno di economie nazionali”, ha aggiunto Lacey.

 

I programmi LPI sono citati nel report:

Nel Capitolo IV (Sezione B. FOSS Software Locale per lo Sviluppo dell’Industria, pagine 66) c’è un caso studio titolato “Creare business ed opportunità di apprendimento con FOSS in Africa: il caso di ict@innovation”.
Questo esempio descrive i programma di formazione e certificazione LPI con ict@innovation e continua affermando che “la fornitura di questi corsi può essere un’opportunità di business redditizia. Inoltre, avendo del personale certificato in Africa, le imprese coinvolte con il Software Open Source possono migliorare la qualità dei loro servizi e conquistare nuovi clienti”.

* Nel Capitolo V (Politiche per consentire un Sistema Software Nazionale, Sezione C: Protezione dell’accesso alle competenze necessarie, pagina 93) il report descrive il programma LPI in collaborazione con la International Telecommunications Union (ITU) per supportare la certificazione e formazione Linux tra i 22 stati membri della Lega degli Stati Arabi. Il caso studio osserva che questa iniziativa ha seguito un programma pilota LPI/ITU in Afghanistan, Repubblica Democratica Popolare del Laos, Territori Palestinesi Occupati, Pakistan, Repubblica Araba di Siria e Yemen: “la rete LPI dei rappresentanti del settore, clienti aziendali e professionisti Linux riconosce un interesse economico in questo programma di formazione che si collega alla comunità che parla la lingua del posto. Mandato di LPI è quello di promuovere gli standard professionali e l’adozione globale di Linux e altri Software Open Source attraverso la formazione. Si prevede che il software Open Source diventerà presto interessante per la maggior parte dei giovani tirocinanti ICT della regione in quanto ha radici profonde in comunità e gruppi di lavoro”.

 

Relativamente al FOSS:

* Nel Capitolo IV “Il Ruolo del Software Free ed Open Source” (pagine 62-63), il report descrive i seguenti valori del FOSS per lo sviluppo di settori software nazionali:
– Promozione della formazione locale
– Riduzione dei costi e creazione di valore locale
– Meno dipendenza da specifiche tecnologie e fornitori
– Adattamento del software ad esigenze locali
– Rispondere alle preoccupazioni relative a sicurezza nazionale e disponibilità a lungo termine

 

Le raccomandazioni politiche conclusive del report (pagine 108) forniscono anche ai governi nazionali indicazioni su come adottare ed utilizzare FOSS:

“Dare la necessaria attenzione al FOSS, soprattutto in materia di appalti pubblici: il FOSS può promuovere lo sviluppo del mercato nazionale e l’innovazione locale. Piuttosto che acquistare licenze software e servizi all’estero, il FOSS locale può generare sviluppo, vendite e servizi che aiutano a mantenere le risorese nell’economia local, evitando di dipendere da specifici fornitori e dare opportunità per generare reddito ed occupazione sul territorio. Il FOSS può anche consentire alle PMI locali di software di creare nuove nicchie di mercato. I governi dovrebbero comprendere i diversi vantaggi per affidarsi al FOSS quando questo offre una soluzione competitiva alle loro esigenze. Le tendenze tecnologiche, con particolare riferimento al cloud computing, applicazioni mobili e big data, stanno ulteriormente accentuando la dipendenza dal FOSS”.

Il report completo sul sito UNCTAD

Dieci motivi per non utilizzare GNU/Linux

Articolo tradotto dal blog di LPI, testo di Jon “maddog” Hall.

Molti anni fa lavoravo ancora per la Digital Equipment Corporation ma giravo ancora il mondo parlando di Free Software e GNU/Linux.

Mentre parlavo con le persone molti venivano e mi dicevano “Userei Linux se non fosse per…” ed elencavano la loro ragione del perché non stavano usando Free Software. A quel punto spiegavo loro perché la loro ragione non era corretta (ma un FUD – Fear, Uncertainty and Doubt, paura, incertezza e dubbio, ndt – di qualche azienda del software a sorgente chiuso) o non era più corretto (lo era in passato, ma non adesso). Dopo un po’ ho realizzato che la maggior parte delle volte rispondevo sempre alle stesse domande, così ho creato una presentazione:
I Dieci Motivi Perché Credi Che Tu Non Possa Usare (GNU)/Linux
con sottotitolo:
“Ed i Dieci Motivi del Perché Quei Dieci Motivi sono Stupidaggini.

Ho iniziato a fare questa presentazione a varie conferenze ed è stato prontamente accettato, ma quasi ogni volta ho notato nel programma della conferenza che il sottotitolo veniva modificato o la parola “Stupidaggine” veniva cambiata in qualcos’altro.
Quando chiedevo il perché la risposta era “Non possiamo avere la parola ‘Stupidaggine’ nel programma”

Forse avrei dovuto usare la parola “M___a”.. ma sto divagando.

Dopo molte presentazioni il numero è salito a dodici, ma è poi sceso a dieci di nuovo … ed è rimasta a dieci per un lungo periodo di tempo.

Quindi ecco le “dieci ragioni” e perché sono … beh, non vere.

1. Mancanza di Applicazioni
2. Troppo complicate (troppo difficile da imparare o usare)
3. Mancanza del supporto di Backoffice (SQL Server, Exchange, ecc)
4. Nessuno Middleweare decente (DBMS, oggetti)
5. Troppo difficile da gestire – Troppe revisioni in corso – Pieno di bug
6. Non professionale (Codice creato da studenti) – “Facciamo programmazione professionale qui”
7. Richiede un GURU (mentre Windows può essere gestito da “chiunque”)
8. Poche configurazioni (Strumenti di gestione, Alta affidabilità)
9. Non “mainstream”: Chi chiamo?
10. Rischioso – TCO maggiore del software chiuso

 

Mancanza di Applicazioni
Anche nei primi giorni in cui ho scritto questa presentazione, esistevano migliaia di applicazioni commerciali disponibili per GNU/Linux. IBM ne tiene traccia, alla fine degli anni 90 c’erano 3000 applicazioni commerciali disponibili. Altre migliaia erano utilizzabili sotto emulatori come WINE o SCO iBSC. Ancora altre migliaia sotto JAVA. Windows può girare sotto VmWare per quelle applicazioni non native GNU/Linux. E naturalmente ancora un alto numero di applicazioni con browser web.

Sembra esserci anche una mancanza di comprensione (o mancanza di desiderio di capire) che non ogni gruppo necessita dello stesso software, e magari alcuni elementi dell’azienda possono accettare GNU/Linux, mentre altri aver bisogno di software chiuso.

Adesso quando vai su siti come Sourceforge.net puoi trovare 430.000 prodotti e progetti disponibili e sono “Open Source”, con molti altri disponibili a sorgente chiuso, ma che girano su GNU/Linux.

Si, ci sono ancora alcuni vuoti che devono essere colmati con le applicazioni preferite dalle persone, ma questi spazi si stanno riempiendo rapidamente, in particolare attraverso l’uso di Smartphone Android che agiscono come frontend per applicazioni “cloud”.

 

Troppo complicate (troppo difficile da imparare o usare)
Lo abbiamo portato come portabandiera fin dall’inizio con un certo snobbismo che deriva dai tempi di Unix: “I veri uomini usano programmi in shell” e “I topi sono per i bambini”.

Questo problema ha anche radici nei tempi dei 386 e 486, dove impostare i parametri per dire al kernel la configurazione delle macchina (ed in particolare della scheda grafica) ha portato molti uomini cresciuti a bere. [A questo punto vorrei sottolineare che come amministratore di sistemi Unix per i Laboratori Bell ho bevuto per anni…]. Ma con l’avvento della serie Pentium e delle schede PCI è diventato abbastanza semplice configurare il sistema operativo.

C’è anche il fatto che nessun utente finale ha realmente installato Windows. Windows è arrivato sul computer pre-installato, con i dischi di “ripristino” (non INSTALLAZIONE) per ripristinare il sistema in caso di emergenza.

Ho installato una volta la versione desktop del famoso sistema operativo a sorgente chiuso dai dischi OEM e, anche con un Master in Informatica ed un’esperienza trentennale nel settore, ho finito per perdere un centrimento di capelli. Mi ci è voluto un giorno intero per raccogliere tutti i driver ed finalmente installare il sistema operativo “facile”.

Oggi installare una delle princiali distribuzioni di GNU/Linux è molto semplice, sopratutto quando è possibile usare le impostazioni di default non usando il dual-boot, oppure installando un computer nuovo senza Sistema Operativo. Servizi come CD live o installazione via rete da una chiavetta USB permettono inoltre di testare la configurazione hardware.

C’è ancora dell’hardware non supportato? Si, ma giorno dopo giorno l’hardware non supportato è sempre meno, via via che le società produttrici scoprono che non supportare GNU/Linux (o Android) significa meno vendite.

L’altro problema è l’utente finale. Pensa che GNU/Linux sia “difficile”. GNU/Linux non è “difficile”, è “diverso”, e deve superare le differenze. Così come potrebbe essere necessario superare le differenze tra Windows XP e Windows NT o Windows ME o Windows Vista, o Windows 7 e Windows 8.

LPI Linux Essentials naturalmente aiuta a risolvere questo problema. Seguendo gli obiettivi di Linux Essential è possibile contribuire nel fornitre la conoscenza di cui gli utenti finali hanno bisogno per usare GNU/Linux.

Le persone che usano GNU/Linux oggi mi dicono quanto sia facie da usare e come sia stabile, una volta che hanno le loro applicazioni impostate. Per questo ci sono versioni di Linux pre-installate dai rivenditori ed amministratori di sistema in grado di creare distribuzioni per esigenze particolari.

Ho conosciuto bambini di tre anni usare GNU/Linux per usare i loro giochi preferiti, cliccando solo con il mouse.

 

Mancanza del supporto di Backoffice (SQL Server, Exchange, ecc)
Questo significa che GNU/Linux non ha gli strumenti adatti per adattarsi ad un framework client/server proprietario. Può essere stato vero molti anni fa, ma i primi progetti come SAMBA hanno iniziato a permettere a GNU/Linux non solo a lavorare con altri Sistemi Operativi, ma a diventare il Sitema Operativo preferito come “backoffice”. Aggiungiamo che software commerciali e Free Software per amministratori di sistema come Nagios e Puppet e servizi come LDAP hanno iniziato a nascere su specifiche aperte e non chiuse.

Nel 1998 erano disponibili la maggior parte dei principali database commerciali portati a GNU/Linux, e naturalmente un significativo numero di database Free ed Open Source come MySQL, PosgrSQL e Firebird. Esistono inoltre anche CouchDB ed altri database “NoSQL”.

Quando si tratta di sistemi client/server LAMP e frontend web, GNU/Linux è la “L” di “LAMP”.

 

Nessuno Middleweare decente (DBMS, oggetti)
Anche questa è “storia vecchia”. Ci sono molti database, librerie e altri strumenti di supporto che sono stati sviluppati come Open Source o portati su GNU/Linux.

 

Troppo difficile da gestire – Troppe revisioni in corso – Pieno di bug
Nei primi tempi di GNU/Linux, quando le persone tentavano di mettere tutto insieme, questo sembrava un incubo.

Distribuzioni come Debian, Red Hat, SuSE ed Ubuntu hanno iniziato ad avere un supporto a lungo termine, LTS. Sono stati sviluppati script di Avvio ed Installazione e aggiornamenti automatici sui repository.

Le persone hanno iniziato a capire che con il Software Libero si aveva più controllo sull’installazione e non meno.

Anche se l’organizzazione di supporto abbandona il sostegno ad una distribuzione, il cliente può assumere un supporto specializzato per mantenere il progetto attivo, aggiornando solo gli elementi di criticità.

Il controllo è quindi del cliente, non dell’organizzazione.

Inoltre, progetti come Linux Terminal Server Project ha permesso l’utilizzo di workstation senza dischi come sistemi client, in questo modo i programmi ed i dati sono gestiti dal server. Questo ha permesso di gestire un enorme numero di sistemi client con uno o due amministratori di sistema.

 

Non professionale (Codice creato da studenti) – “Facciamo programmazione professionale qui”
Il termine “professionale” spesso significa solo che vieni pagato per il lavoro anziché farlo come volontario. Ci sono molti stelle dilettanti (non retribuite) nello sport migliori e più in forma dei professionisti (pagati).

In verità la maggior parte dei programmatori, in particolare quelli del kernel, sono professionisti e gran parte di loro ha una laurea specialistica in informatica.

Molte volte un programmatore professionista lavorerà su un tipo di prodotto, ma poi desidera lavorare su qualcosa di diverso. Spesso seguirà un progetto Free Software per avere la possibilità di usare su questo tipo di sistema.

Oppure la persona può programmare un database il giorno ma avere una passione per gli editor musicali la notte.

Sono stato in un ufficio di una grande organizzazione sanitaria una volta, per parlare di Digital Unix. Mentre ero là ho accennato a GNU/Linux al CTO. “Noi non usiamo queste cose amatoriali” ha detto. “Siamo un’azienda seria”. Inutile dire che aveva perso il contatto con la realtà, i suoi amministratori di sistema usavano GNU/Linux per fare il loro lavoro.

 

Richiede un GURU (mentre Windows può essere gestito da “chiunque”)
Questo è sulla falsariga del “troppo difficile da usare” ed è un fatto storico. GNU/Linux richiede all’incirca lo stesso livello di competenza per l’esecuzione e la manutenzione di altri sistemi operativi sofisticati. Un pò di formazione è importante per installazioni di grandi dimensioni o aziendali.

Gli obiettivi per LPIC-1 ed LPIC-2 forniscono gran parte delle informazioni necessarie per eseguire e mantenere un sistema GNU/Linux in un’azienda di piccole e medie dimensioni. LPIC-3 per le funzioni più avanzate.

In ogni caso informazioni e conoscenze necessarie non esagerate, ma è diverso da altri sistemi operativi come Microsoft.

 

Poche funzioni (Strumenti di gestione, Alta affidabilità)
Un altro antico problema. Oggi GNU/Linux ha funzioni di Alta Affidabilità e fail-over uguali a tutti gli altri Sistemi Operativi, che però sono estremamente costosi. Con l’utilizzo di sistemi a basso costo è possibile avere un computer ad Alta Affidabilità, con un failover di meno di un secondo.

Con i suoi filesystem basati sui log, GNU/Linux può essere recuperato dalla mancanza di corrente in pochi secondi e può essere usato come RAID sia a livello software che hardware, per dare ridondanza e velocità di throughput.

Per lavori di fascia alta GNU/Linux può funzionare anche su Mainframe IBM con lo stesso kernel che gira su server o notebook, solo configurato per ad-hoc.

Sono disponibili diversi programmi FOSS per la gestione di data center come Nagios, Zenoss o Zabbix.

 

Non “mainstream”: Chi chiamo?
GNU/Linux gira su più della metà dei server di tutto il mondo, il 98% di tutti i sistemi HPC al mondo, è il più usato nella progettazione di sistemi embeded e circa il 2% dei desktop.

Android è il sistema operativo più venduto per i telefoni cellulari, superando iOS.

IBM, HP, Red Hat, SuSE, Canonical ed altri vendono supporto.

Ci sono migliaia di società di consulenza che vendono supporto.

Naturalmente ci sono anche professionisti LPI che forniscono supporto GNU/Linux.

C’è ancora una carenza di personale di supporto? Si, ma sta migliorando.

 

Rischioso – TCO maggiore del software chiuso
Tutto negli affari è rischioso. Ma almeno con il FOSS hai tu il controllo sul software e non qualche grande azienda.

Il TCO non è la metrica che devi guardare. Dovresti controllare il ROI (Return On Investment). Cosa sarai in grado di fare con soluzioni software. Quanto denaro risparmierai o farai e qual’è stato l’investimento.

Il FOSS permette una maggiore integrazione dei software a sorgente chiuso.

Il FOSS permette di fare un piccolo cambiamento per migliorare il lavoro a dipendenti o clienti.

 

Sommario
La maggior parte dei motivi per cui la gente pensa che non è possibile utilizzare il Software Libero e Open Source, e in particolare GNU/Linux, è che stanno pensando a GNU/Linux di quindici anni fa, e non a quello di oggi.

Molte persone non utilizzano GNU/Linux a causa dell’ascolto di FUD e sicuramente non stanno vedendo ciò che il FOSS è oggi. O hanno provato ad utilizzare GNU/Linux anni fa. Nel regno del Software Libero, sei mesi è quasi “per sempre”.

Vendor Neutral e fornitori

Traduzione dal blog di LPI.org.

Quando ero uno studente alla Drexel University ho seguito alcuni corsi in ambito business. Uno di questi parlava della gestione aziendale ed uno dei principarli argomenti era che le aziende dovrebbero, dove possibile, essere “vendor neutral” ed avere una seconda scelta per i prodotti o servizi necessari per gestire l’azienda stessa.

Cos’è una seconda scelta? Semplicemente un secondo potenziale fornitore di qualsiasi cosa abbia bisogno, specialmente per le componenti critiche.

Perché avere una seconda (o terza o quarta) scelta? Ci sono diverse ragioni:

  • un solo produttore potrebbe uscire dal mercato
  • un solo produttore potrebbe iniziare a produrre prodotti scadenti
  • un solo produttore non lascia alcun potere di contrattazione
  • un solo produttore potrebbe non essere in grado di soddisfare le esigenze in termine di volumi
  • un solo produttore potrebbe subire limitazioni di embargo nel proprio o nel tuo Paese
  • un solo produttore potrebbe essere soggetto ad alta tasse doganali nel suo o nel tuo paese
  • in caso di servizi, potrebbe essere più conveniente erogarli attraverso fornitori sparsi in giro per il mondo

 

I produttori di auto ed aerei lo hanno capito da molti anni. I loro reparti acquisti sono continuamente alla ricerca di fornitori alternativi per ottenere migliori tariffe e prezzi.

 

Anche se l’acquisto di grandi quantità da un singolo fornitore può abbassare molto i prezzi, molte aziende si sono bruciate quando hanno messo “tutte le uova nello stesso paniere”, in particolare quando il loro fornitore è una piccola azienda.

 

La parte ironica è che oggi nessuna azienda è troppo grande per fallire, anche imprese di grandi dimensioni e con buone vendite in alcuni reparti possono essere annullate da altri reparti in perdita.

 

Gli standard aiutano alla neutralità del fornitore, quando si tratta di trovare un nuovo fornitore. È stata la standardizzazione dei componenti che ha permesso all’industria automobilistica non solo di creare linee di assemblaggio ma anche di creare prodotti secondari dai loro componenti, o a fornitori terzi di creare prodotti compatibili ma non del brand di riferimento. In questo modo si possono acquistare nuove componenti per la Fort “T”, anche se questo modello non è in produzione da 100 anni.

 

Gli standard nella filettatura di un tubo significano che quel tubo non deve essere trasportato attraverso tutto il Paese solo per montare dei fili in un luogo differente.

 

Gli standard in elettronica ci permettono di collegare diversi componenti elettrici insieme, in questo modo possiamo acquistare con sicurezza i prodotti da diversi fornitori.

 

Per questo mi sconvolgo quando vedo aziende comprare i loro software solo da un produttore.

 

“Ma no” mi dirà il manager, “abbiamo diversi appaltatori per i diversi lavori.” O diranno “Riceviamo alcuni dei nostri software da Dell ed altri da IBM.”

 

Ma il produttore del software è normalmente solo un’azienda.

 

Le persone sono state portate a credere che stanno facendo un buon affare sui loro software a sorgente chiuso perché è economico. Ma se i produttori di quel software avessero un vero clone disponibile da una seconda scelta concorrente, non sarebbe ancora meno costosa per il cliente?
Il fornitore concorrente fornirebbe un servizio e ad un costo migliore se il cliente gli desse più lavoro con continuità.

 

Non avere una seconda scelta indebolisce la tua abilità nel negoziare per ottenere condizioni più favorevoli.

 

Un altro problema che ha ottenuto molta visibilità in ambito informatico è la questione dell’embargo. Paesi come Cuba ed Iran non possono usare legalmente software di azienda statunitensi. Questo comprende Red Hat e Novell. Naturalmente li utilizzano, ma acquistando da rivenditori con sede in altri Paesi o usando software pirata. Tuttavia le aziende con base negli Stati Uniti non possono legalmente aiutare cubani ed iraniani con i loro problemi software a causa dell’embargo.

 

Ci sono anche “embarghi parziali”. Qualche anno fa le leggi sull’esportazione di software di crittografia erano molto rigide, molti paesi non potevano legalmente ottenere prodotti software basati sulla crittografia dagli Stati Uniti. Ancora oggi ci sono embarghi parziali contro le tecnologie di supercalcolo.

 

Mettendo da parte il problema dell’embargo, non è impossibile che alcuni Paesi possano avere problemi di questo tipo. Tuttavia con altri Paesi in via di sviluppo e “clienti” forti (ad esempio Cina ed India) gli Stati Uniti non sono esenti da minacce di embargo. Quello sul petrolio di alcuni anni fa ne è un esempio lampante.

 

Così è con il software ed ecco perché il Software Libero e Linux sono una importante fonte di neutralità dei fornitori.

 

Prima di tutto, il Software Libero è sviluppato in tutto il mondo e per la maggior parte è di proprietà di comunità virtuali e non un individuo o società. È vero che in alcuni casi ci sono aziende singole che possono vendere servizi o fare la maggior parte dello sviluppo, ma il codice sorgente è liberamente concesso in licenza ed è stato copiato più volte in tutto il mondo. In caso di catastrofi naturali, di origine umana o guerre è improbabile che possa essere cancellata l’unica copia del codice sorgente del Software Libero, né la conoscenza che ci vuole per ripristinare il codice per la sua redistribuzione. Se le aziende o governi hanno veramente paura che ciò possa accadere, il loro compito sarà quello di copiare i sorgenti del software in un deposito che garantisca la conservazione una copia in sicurezza.

 

In secondo luogo, in molti casi ci sono scelte secondarie delle distribuzioni principali di software come GNU/Linux o *BSD. Nel caso di GNU/Linux ci sono molte distribuzioni del software, gran parte delle quali compatibili a livello binario grazie ad ingenti sforzi come il progetto Linux Standard Base. Inoltre il Software Libero fornisce all’azienda o al governo molte altre “seconde scelte” sul piano della fornitura, dal momento che i sistemi operativi tendono a funzionare con diverse architetture hardware, così come è utile avere più fornitori di hardware.

 

In terzo luogo, anche se ogni “fornitore” scomparisse dalla faccia della terra, un Paese potrebbe ancora mantenere il Software Libero, utilizzando i propri cittadini allo scopo di mantenerlo.

 

Il Free Software è il software più “vendor neutral” che tu possa trovare.