Dimentica di essere limitato al rendering inefficiente e al solo hosting di contenuti: XEL è l'unico ...
Dimentica di essere limitato al rendering inefficiente e al solo hosting di contenuti: XEL è l'unico ...
XEL Elastic Panoramica
Molti problemi scientifici, ad esempio la simulazione della meccanica quantistica, l'ottimizzazione non lineare utilizzata nelle previsioni meteorologiche e l'ottimizzazione e la minimizzazione dei circuiti logici, richiedono risorse di calcolo che superano quelle di ogni singolo computer di molti ordini di grandezza. La crescente adozione di questi metodi nella scienza di oggi è stata la forza trainante alla ricerca di modi per creare ambienti in cui questi problemi possano essere risolti in un ragionevole lasso di tempo. Già negli anni '90 è emerso il termine "grid computing"; un approccio che comprende il raggruppamento delle risorse computazionali di molti singoli computer in un'unica entità olistica in grado di fornire la sua potenza di calcolo combinata con la stessa facilità dell'accesso alla potenza dalla rete.
Mentre la creazione di un cluster di grid computing locale sembra molto semplice, ha un costo considerevole. Non solo devi acquistare attrezzature sufficienti per fornire le risorse di cui hai bisogno, ma devi anche pagare i costi ricorrenti per la manutenzione e il funzionamento. Questo non è un modo molto economico per calcoli occasionali e progetti una tantum. Alcuni approcci per decentralizzare il grid computing, tuttavia, sono stati presentati alla fine degli anni '90 e si basano sul fatto che molte persone oggi hanno computer molto potenti che sono tutti connessi a Internet. Se ci pensate, c'è una notevole quantità di potenza di calcolo, non nei centri o nei laboratori di supercomputer, ma nelle case delle persone. Piattaforme come Distributed.net e successivamente SETI @ Home e BOINC hanno mostrato i modi per utilizzare questi dispositivi (dell'utente) per formare un più potente grid-computer con quasi nessun costo di installazione iniziale. Tuttavia, queste piattaforme si basavano principalmente (e si basano) sull'informatica volontaria, vale a dire su partecipanti volontari che sono disposti a contribuire con il loro potere computazionale ai progetti a cui aspirano. Inutile dire che i progetti più noiosi (come la simulazione di compiti a casa) hanno solo poche possibilità di ottenere una quantità ragionevole di risorse di elaborazione.