PDA

View Full Version : Super Computer


[IGI]
14-05-2002, 19:28
Sento già qualcuno che si chiede: Super Computer ? Di cosa stiamo parlando ? ... No, non mi riferisco ad un sistema multi processore Pentium 4 2GHz o Athlon MP ma ai veri e propri Super Computer, quelli utilizzati per studiare le dinamiche delle galassie, il funzionamento dei medicinali; quelli usati per scoprire pozzi petroliferi, per prevedere gli uragani, per progettare un nuovo modello automobilistico. Mi riferisco a quei computer di mostruosa potenza che costano non raramente decine e decine di milioni...di dollari.
Il leggendario Seymor Cray (classe 1925) ingegnere elettronico e padre del Super-Computing inizia la sua carriera lavorando alla creazione di elaboratori per varie organizzazioni governative americane. Siamo negli anni sessanta quando cioè i computer erano ancora fatti di valvole a vuoto e amplificatori.
Forte dell'esperienza acquisita in quegli anni , Seymor fonda nel 1972 la Cray Research, la società che darà vita al più famoso super-computer della storia: il CRAY-1 (1976). Il primo esemplare fu istallato nei laboratori di Los Alamos per la cifra di 8 milioni di dollari di allora (!). Le prestazioni erano fuori da ogni parametro per i tempi: 160 MFlops (milioni di calcoli floating-point al secondo) e ben 8MBytes di memoria (una enormità per quegli anni. Ricordatevi dei 32KByte del primo PC del 1981...). il Cray-1, come tutti i super computer, aveva una stazza ragguardevole e produceva una enorme quantità di calore per dissipare il quale Seymor stesso mise a punto un particolare sistema di raffreddamento al Freon (CDC6600 Freon-cooling system).
Nel 1982 Seymor diede vita al CRAY X-MP, il primo modello multiprocessore e nel 1985 vide la luce il CRAY-2, oltre dieci volte più potente del precedente CRAY-1 (ben 1.9 GFlops di picco e 2GByte di memoria...pensate che il PC era appena nato e nelle case dei ragazzi di mezzo mondo cominciava a farsi strada il C-64...).
Nel 1988 fu la volta del CRAY Y-MP capace di ben 2.3GFlops "sustained" (ossia di media e non di picco) ottenuti tramite l'impiego di processori da 333MFlops (sempre per fare un paragone con il mondo PC: il 286 o il 68020, disponibili in quegli anni nel mondo consumer, erano ben lontani dal raggiungere il MFlops).
Nel 1989 Seymor fondò la Cray Computers per dedicarsi unicamente allo sviluppo del CRAY-3 e del mai terminato CRAY-4. Entrambi i progetti erano ambiziosissimi e costosissimi. Seymor cominciò ad utilizzare l'arseniuro di gallio (GaAs) al posto del silicio e sistemi di raffreddamento criogenici che gli permisero di ottenere processori con frequenze di 500 e addirittura 1000MHz (1994, anno in cui, se eri fortunato, avevi un 486 a 25MHz :lol: ).
Negli anni novanta continua la leadership della Cray con il pluri premiato modello CRAY C90 (16 processori per complessivi 16GFlops e 4GByte di memoria). Questo modello consolida la tecnologia che aveva inventato lo stesso Seymor e che ha sempre caratterizzato i super-computer Cray: il vector processing. In pratica i processori che costituiscono questi computer possono effettuare istruzioni su un numero molto grande di dati allo stesso tempo (SIMD - Single Instruction Multiple Data) e in alcuni casi anche più istruzioni su più dati (MIMD - Multiple Instruction Multiple data). Le configurazioni multi-processore normalmente non utilizzavano molti processori (tipicamente 2-32), ma con il modello CRAY-T3D (1993) debuttò il primo Super Computer Cray MMP (Massively Parallel Processing). Questa tipologia di elaboratori utilizza un numero molto elevato di processori semplici e permette di raggiungere, soprattutto in particolari applicazioni, delle prestazioni astronomiche. Nel 1995 il Cray-T3E è stato il primo elaboratore a superare la barriera del TeraFlops (mille miliardi di operazioni al secondo) su applicazioni reali!.
Nel 1996 Seymor muore in un incidente stradale e lo stesso anno la Cray Research viene comprata da SGI (Silicon Graphics) gia famosa come produttrice di workstation grafiche.

Anche oggi Cray produce i più potenti super-computer del mondo:

Cray SV1: Super-Computer vettoriale scalabile, è stato eletto il migliore dell'anno per flessibilità e potenza. Monta unità elaborative vettoriali da 8GFlops.

Cray T3E: Il più famoso e potente Super-Computer MPP (Massive Parallel Processing) con le prestazioni sustained più alte mai registrate: 1.02 Trilioni di calcoli al secondo (1000 miliardi). Dedicato ai problemi altamente vettoriali con scaling da centinaia a migliaia di processori. Architettura MIMD e SIMD scalabile da 54GFlops a 3 TFlops tramite 40 - 2176 elementi elaborativi basati su Alpha 21164A e memoria centrale da 10GByte a 1TByte.

Cray SuperCluster: Modello di Super-Computer Cluster ancora in fase di sviluppo. Utilizzerà processori Alpha con sistema operativo Linux !

Cray SV2: Il futuro del super-computing. Sarà il primo a coniugare i potenti processori vettoriali Cray con il MPP. Unendo le caratteristiche del'SV1 e del T3E si potra sprigionare una potenza di svariate decine di TeraFlops.

Enjoy :)

[IGI]
14-05-2002, 19:47
UP :)

Kopl
15-05-2002, 09:34
Ma gira sopra Daoc? UT? no, perchè altrimenti non me ne faccio molto :-P

comunque :drool: :drool:

Jarsil
15-05-2002, 09:54
Io sto topic lo sticko perché i post informativi mi piacciono un sacco :)
E così non serve upparlo né che Kopl ci metta del suo :p

Kopl
15-05-2002, 10:31
Originally posted by Jarsil
E così non serve upparlo né che Kopl ci metta del suo :p

Dall'Italia: capacità di un Cry 2 a prezzi decisamente inferiori

Enormi progressi sono stati fatti nella costruzione di calcolatori elettronici a partire dalla realizzazione del primo esemplare, circa quaranta anni fa. Dal punto di vista dell'hardware (ovvero la struttura fisica della macchina, termine spesso usato in contrapposizione al software, ossia l'insieme dei programmi e più in generale dei linguaggi di programmazione) il progresso è stato essenzialmente di natura tecnologica, non concettuale: lo schema generale della macchina è ancora quello originario (proposto da Von Neumann) dei primi calcolatori; solo in questi ultimi anni, sotto la spinta delle nuove possibilità tecnologiche si cerca di realizzare macchine con architetture differenti, che a parità di prezzo possano essere centinaia di volte più veloci dei calcolatori attuali.
Quale è la necessità al momento attuale di costruire calcolatori sempre più veloci? A parte le risposte più ovvie - c'è un interesse militare in direzione dell'SDI (guerra spaziale), che meriterebbe un discorso molto più articolato, e un interesse commerciale (se non si fanno nuovi modelli il mercato non tira) - si può osservare che ci sono tante cose che vorremmo che un calcolatore facesse: parlare e capire l'Italiano in modo da eliminare le tastiere, eseguire i compiti che gli sono stati assegnati anche se questi gli sono stati definiti con una certa approssimazione (cioè in fondo avere "un po' di buon senso"), essere in grado di distinguere una foto di un ponte da quella di una diga...

Se consideriamo per esempio il problema del riciclaggio dei rifiuti, fino a quando non riusciremo ad avere nelle case sette diversi secchi della spazzatura per rifiuti diversi, è estremamente probabile che buona parte dei rifiuti verranno portati via dalle case mischiati gli uni con gli altri e non ci sarà nessuno disponibile ad andare a frugare nei mucchi della spazzatura per separare i rifiuiti organici dagli inorganici, la plastica dal vetro, i metalli dalla carta e così via; un lavoro di questo genere sarebbe l'ideale per un robot che potrebbe separare i vari rifiuti che gli arrivano portati su di un nastro trasportatore.

Sfortunatamente questo progetto non può essere realizzato al momento attuale (facendo astrazione dai costi) perchè non esiste nessun calcolatore (di dimensioni ragionevoli) che sia in grado in tempi reali di distinguere la composizione dei vari oggetti che si trovano nell'immondizia basandosi sui dati di una telecamera o sulle sensazioni tattili provenienti dai bracci meccanici. Al momento attuale gli algoritmi noti per risolvere il problema del riconoscimento e classificazione delle immagini sono estremamente farraginosi e in ogni caso i calcolatori attuali sono tremendamente lenti nel risolvere problemi complessi, se prendiamo come punto di riferimento il cervello di un mammifero. I costruttori di calcolatori hanno ben presente le deficienze dei calcolatori attuali: Il famoso progetto giapponese "calcolatori di quinta generazione" (finanziato dal ministero dell'industria e tecnologia giapponese) dovrebbe essere il tentativo più organico per arrivare alla costruzione di calcolatori molto più efficienti di quelli attuali con i quli l'uomo dovrebbe essere in grado di interagire in maniera estremamente più agevole.

Per capire che cosa bolle in pentola nel mondo dei calcolatori è innanzitutto necessario riassumere brevemente come funzionano i calcolatori attuali. A questo scopo facciamo un esempio concreto: un calcolatore tipico commerciale relativamente grosso è il Vax 8600 (costo circa un miliardo di lire); le sue dimensione fisiche sono circa uguali a quattro frigoriferi (del tipo per famiglia numerosa); a questo calcolatore possono essere attaccati un centinaio di terminali, più svariate linee telefoniche e unità nastri.

L'osservazione essenziale è che buona parte dello spazio all'interno del calcolatore è occupato dalla memoria, che è organizzata in maniera gerarchica: una memoria "lenta", ma grande (dischi), dell'ordine di un miliardo di caratteri, una memoria veloce più piccola (chips) di qualche milione di caratteri e una memoria velocissima ma molto piccola (anch'essa chips), la cosidetta cache di qualche migliaio di caratteri. Al contrario la parte dove vengono effettuati i calcoli veri e propri e che decide cosa e dove deve essere scritto o letto in memoria (la cosidetta CPU - central processing unit) è estremamente piccola: si tratta di una singola scheda di pochi decimetri quadri di superfice e di un centrimetro di spessore. In calcolatori lievemente più piccoli la CPU è concentrata su un singolo chip di qualche centimetro quadro di superfice.

La CPU è il cuore (o forse meglio il cervello) del calcolatore: i dati provenienti dalle memorie o dai vari canali di input-output col mondo esterno vengono convogliati verso la CPU, che dopo aver eseguito le operazioni opportune, rimanda nuovi dati in altre locazioni di memoria o al mondo esterno. In altri termini, sia le operazione aritmetiche logiche, sia le decisioni di scrittura e lettura dalla memoria vengono eseguite nella CPU. La velocità finale alla quale il calcolatore può eseguire i suoi compiti, dipende in maniera cruciale dalla velocità della CPU (sempre che sia possibile un accesso in memoria con una velocità adeguata).

Mentre il prezzo di CPU sempre più complicate è crollato clamorosamente in questi ultimi anni, dopo l'introduzione di chips a VLSI (very large scale integration) che possono contenere circa un milione di transistors, rimane estremamente difficile fare CPU molto più veloci di quelle attuali: per esempio la CPU di un personal computer come il Mcintosh ha un ciclo (o meglio clock, tempo necessario per eseguire un'istruzione elementare) di 120 miliardesimi di secondo, mentre il nuovissimo Cray 2, il più potente supercalcolatore in commercio (costo circa 40 miliardi), ha un ciclo di 4 miliardesimi di secondo. Diminuire di molto il tempo necessario per effettuare un ciclo è un'impresa molto difficile se si tiene conto che in un miliardesimo di secondo la luce fa un percorso di 30 centrimetri ed un segnale elettrico fa un percorso di 10 - 15 centrimetri circa.

La soluzione ideale sembra non quella di fare CPU più veloci, ma di usare un numero abbastanza elevato di CPU non tanto veloci, ma a basso costo: il successo dei personal computer va chiaramente in questa direzione in quanto compiti che tradizionalmente venivono affidati ad una singola unità centrale, son distribuiti su tanti piccoli calcolatori. Se ci serve un singolo calcolatore estremamente veloce, sembrerebbe una buona idea abbandonare l'architettura proposta da Von Neumann, che prevede una singola CPU per calcolatore ed invece mettere per esempio cento CPU dentro lo stesso calcolatore, visto specialmente che in media il costo della CPU è estremamente basso (dell'ordine di qualche percento del totale) rispetto alle altre componenti del calcolatore (memorie, dischi, alimentazione elettrica, canali di input-output ). In questo modo sarebbe possibile avere dei calcolatori un poco più costosi dei calcolatori attuali con una velocità estremamente più elevata. Il problema serio nasce col fatto che "con tanti galli a cantare, non si fa mai giorno". Ciascuna delle cento ipotetiche CPU deve poter accedere alla memoria (per leggervi o scriverci delle informazioni) in maniera efficiente ed è possibile che varie CPU vogliano leggere cose diverse sulla stessa area di memoria: questa eventualità crea un contrasto di interessi che si può risolvere solo col sistema: "uno per volta per carità", ossia facendo fare una fila alle varie CPU; se la fila per accedere a punti della memoria dove sono immazzinate informazioni cruciali per tutte le CPU diventa troppo lunga, le prestazioni di tutto il sistema si degradano facilmente.

Inoltre, se vogliamo che il nostro ipotetico calcolatore sia teso a risolvere un solo compito complicato, e non cento compiti disparati, è necessario che le varie CPU siano in comunicazione fra di loro in maniera tale che le operazioni aritmetiche-logiche che si svolgono su una CPU dipendano dalle operazioni effettuate sulle altre CPU. La difficoltà nel far ciò non risiede tanto nell'hardware (la comunicazione tra le varie CPU potrebbe avvenire o tramite la memoria in comune o tramite canali diretti), quanto nel software: è già difficile spiegare al calcolatore che cosa deve fare se esiste una sola testa pensante (ovvero una sola CPU) che deve risolvere il problema sequenzialmente, ovvero facendo un'operazione dopo l'altra in ordine prestabilito; le difficoltà diventano quasi insormontabili se si debbono dare le istruzioni ad un centinaio di robot semideficienti (le varie CPU) che si debbono sincronizzare l'uno con l'altro per fare un lavoro coordinato e che fanno esattamente quello che il programmatore gli ha detto di fare, senza metterci un briciolo di buon senso nell'eseguire gli ordini; in sistemi di questo genere è possibile arrivare ad una situazione di stallo di tutto il calcolatore: la prima CPU sta ferma ad aspettare che la seconda CPU gli dia l'autorizzazione a proseguire, la seconda sta a aspettare l'autorizzazione della terza e così via fino ad arrivare all'ultima che sta ad aspettare l'autorizzazione della prima.

Ovviamente il verificarsi di un tale blocco generalizzato dipende dal programmatore che non si era accorto di dare alla macchina istruzioni che avrebbero potuto portare ad una tale situazione: ma è anche evidente che il programmatore non può ragionevolmente prevedere, in caso di programmi complessi, tutte le situazioni possibili. Inventarsi un linguaggio di programmazione efficace per calcolatori a molte CPU è un compito estremamente difficile; anche se generalmente si è d'accordo che bisognerebbe fare qualcosa di radicalmente differente dall'esistente, non è affatto chiaro in quale direzione muoversi. La soluzione ideale sarebbe di poter usare il linguaggio naturale e di spiegare al calcolatore, come si farebbe ad un amico, che cosa deve fare; sfortunatamente per far questo il calcolatore dovrebbe aver una capacità di comprensione del linguaggio naturale che è ben lontano da avere.

Un tentativo possibile consiste nell'utilizzare un'hardware abbastanza sofisticato in modo da allievare parte di questi problemi software: varie macchine di questo tipo sono costruite o sono in costruzione: uno degli esempi più interessanti è il calcolatore RP3, prodotto sperimentale dell'IBM, il cui prototipo dovrebbe essere pronto l'anno prossimo; l'RP3 ha la stessa archittura dell'ultracomputer del Courant Institute della New York University (quest'ultimo non è mai stato costruito): 64 memorie e 64 CPU, connesse da una rete di commutazione (switchbord ) intelligente, che cerca di combinare per quanto possibili, messaggi provenienti da CPU diverse ed indirizzati alla stessa memoria. I prossimi anni ci diranno se tentativi di questo tipo ci danno risultati soddisfacenti o se bisogna tentare qualcosa di completamente nuovo.

Una possibilità alternativa starebbe nell'imitare la natura e costruire un calcolatore che abbia un architettura simile a quella del cervello umano: infatti il sistema nervoso dell'uomo è costituito da circa mille miliardi di neuroni che lavorano in parallelo ed ognuno di questi neuroni comunica in media con un migliaio di altri neuroni; al momento attuale le nostre conoscenze sul funzionamento del cervello sono talmente scarse che questa strada non è percorribile immediatamente: mentre il comportamento dei vari tipi di neuroni (ne esistono circa un migliaio di tipi diversi) è più o meno noto, in certi caso anche in grande dettaglio, non si sa quasi niente su come questi neuroni siano collegati l'uno con l'altro in maniera da formare unità funzionali di qualche migliaio di neuroni e come queste centinaia di migliaia di unità funzionali siano in contatto fra di loro. Nonostante la scarzezza delle informazioni, alcune caute esplorazioni sono cominciate e non è detto che questa direzione non sia alla lunga la più fruttuosa; a questo riguardo è interessante notare che se con le tecnologie d'oggi giorno (supponendo di conoscere nei massimi dettagli come siano connessi i vari neuroni) volessimo costruire circuiti elettronici dalle capacità funzionali paragonabili a quelle di un cervello di un mammifero, le apparecchiature finali occuperebbero di una superfice di un chilometro quadrato e il costo del progetto si aggirerebbe sul milione di miliardi di lire (lira più, lira meno).

Un'altro campo del tutto differente nel quale sarebbero benvenuti calcolatori estremamente veloci, sono i problemi di calcolo numerico intensivo, in cui la struttura delle equazione che debbono essere risolte permette esse stesse un elevato grado di parallelismo. Consideriamo per esempio il problema del moto di una proteina composta da un migliaio di atomi (problema estremamente interessante in quanto la sua soluzione ci permetterebbe di calcolare la conformazione spaziale - la cosidetta struttura terziaria - di una proteina a partire da principi primi); in questo caso possiamo concepire un struttura di calcolo parallelo in cui ogni CPU si occupi del moto di un singolo atomo; similmente nel caso delle previsioni del tempo su scala planetaria possiamo pensare di assegnare a ciascuna delle nostre ipotetiche 24 CPU il compito di calcolare le previsioni del tempo dentro un fuso orario; ovviamente le varie CPU devono scambiarsi delle informazioni in maniera di prevedere le stesse condizioni metereologiche sulle linee di separazione fra i vari fusi orari, ma questo fatto non crea problemi in quanto tutte le CPU possono in maniera sincrona chiede informazioni alle corrispettiva CPU che si occupano delle previsioni del tempo nel fuso orario contiguo (ad Est o a Ovest). In questi casi la natura stessa del problema permette di suddividere il compito globale in tanti compiti identici, da essere eseguiti in paralello, e lo scambio di informazioni fra le varie CPU può effettuato in maniera sincrona e prevedibile. Al limite potremmo immaginare una struttura in cui ci sia una sola CPU che controlla 24 memorie e 24 unità aritmetiche, le quali lavorano in parallelo.

Quest'ultima soluzione (in gergo chiamata calcolatore SIMD - single instruction multiple data - in contrapposizione alla soluzione precedentemente descritta nella prima parte dell'articolo: MIMD - multiple instructions multiple data) è estremamente più semplice da realizzare, anche se ha un interesse meno generale. Tuttavia le applicazioni di calcolatori veloci alla fisica (per esempio calcolo di strutture elettroniche, studio di materiali amorfi, calcolo delle proprietà delle particelle nella cromodinamica quantistica, studio della turbolenza sviluppata) sono talmente numerose, che più di un gruppo di fisici ha incominciato a costruire un calcolatore parallelo a struttura essenzialmente SIMD (una CPU con molte memorie e unità aritmetiche che lavorano in paralello).

In Italia un progetto del genere (progetto APE, finanziato dall'Istituto Nazionale di Fisica Nucleare) è in corso di realizzazione: un primo prototipo di un calcolatore parallello con quattro memorie e quattro unità aritmetiche è in funzione dallo scorso ottobre, un secondo prototipo con le stesse caratteristiche funzionali del primo è stato quasi terminato di costruire; per l'estate prossima dovrebbe essere pronta la versione finale, 16 unità in paralello. Le capacità di calcolo di questo calcolatore saranno paragonabili in molti casi a quelle del Cray II, a costi decine di volte inferiori: una velocità di calcolo di un miliardo di operazioni al secondo ed una memoria dinamica di un miliardo di charatteri (byte ). APE è il primo supercalcolatore di progettato interamente in Europa: sarebbe bello sperare che la sua realizzazione possa spingere le ditte Europee a essere meno dipendenti dagli Stati Uniti in questo settore.

Jarsil
15-05-2002, 11:49
Ecco Kopl, questo si :)

Bravo :)

[IGI]
15-05-2002, 18:39
UP :)

Vegeta Jacon
15-05-2002, 19:24
Chissa se IGZ si potrà mai permettere dei server montati su macchine del genere!
http://vegetajacon.supereva.it/Smiles/18.gif http://vegetajacon.supereva.it/Smiles/18.gif http://vegetajacon.supereva.it/Smiles/18.gif http://vegetajacon.supereva.it/Smiles/18.gif http://vegetajacon.supereva.it/Smiles/18.gif http://vegetajacon.supereva.it/Smiles/18.gif

TC
15-05-2002, 19:51
Originally posted by Vegeta Jacon
Chissa se IGZ si potrà mai permettere dei server montati su macchine del genere!


ohh :D finalmente qualcuno che capisce!

ti mando il bollettino a casa? :rotfl: :rotfl: :rotfl:

Rebaf
15-05-2002, 20:32
Edito che TC non aveva capito :D

Jarsil
15-05-2002, 21:05
Originally posted by Tyrel
UP :)

:mad: :mad: :mad:

Niente UP...
L'ho messo sticky :)

:hello:

GuN_jAcK^
15-05-2002, 21:17
ghghgh :D

Reiser DarkSide
09-09-2002, 17:20
Informazioni.. il Cray II l'ho visto e toccato di persona a parigi nel museo "des arts et metierè" (o come cazz si scrive) è grosso più o meno quanto una stanza ed è spegato dettagliatamente nel museo.. anche il funzionamento della ALU è spiegato..

(la mia ragazza non è stata molto contenta del fatto che son rimaso un'ora fermo lì con la bava alla bocca ad ammirarlo)

Reiser DarkSide
09-09-2002, 17:31
ah, piccola curiosità aggiungo..
ora, in questo momento, il supercomputer più potente al mondo in funzione è l'IBM Ascii White, in grado di svolgere 11 trilioni di calcoli al secondo ed è utilizzato per le previsioni metereologiche.

GuN_jAcK^
12-09-2002, 15:14
pensate che se gli chiedo gentilmente di farmelo per Natale me lo regalano i miei? .... :rolleyes:

Hell Spawn
13-09-2002, 00:04
Originally posted by Reiser DarkSide
ah, piccola curiosità aggiungo..
ora, in questo momento, il supercomputer più potente al mondo in funzione è l'IBM Ascii White, in grado di svolgere 11 trilioni di calcoli al secondo ed è utilizzato per le previsioni metereologiche.

che giochi ci partono????
e poi costa molto???

*Keu*
14-09-2002, 11:51
Bah.. il + bel processore mai visto è quello della...

SBORONE INSIDE ® :cool: [Aut. Min. Ric.]

svolge 1 operazione ogni 6 ore e consuma al secondo come una serata di elettricità a New York :cool:

Provare per credere :D

gogeta
16-10-2002, 10:35
Originally posted by GuN_jAcK^
pensate che se gli chiedo gentilmente di farmelo per Natale me lo regalano i miei? .... :rolleyes:

Tentare non nuoce...

Ma sei il figlio di Berlusca o di Bill Gates???
:D :D

gogeta
16-10-2002, 10:36
Originally posted by Scripter Keu
Bah.. il + bel processore mai visto è quello della...

SBORONE INSIDE ® :cool: [Aut. Min. Ric.]

svolge 1 operazione ogni 6 ore e consuma al secondo come una serata di elettricità a New York :cool:

Provare per credere :D

:eek: :eek: :eek: :eek: :eek:
Lo voglio!!!!
:D :D :D :D :D

Leeno Wave
12-11-2002, 20:14
Originally posted by Hell Spawn


che giochi ci partono????
e poi costa molto??? spero sia uno scherzo di cattivo gusto....

GuitarMaster
24-11-2002, 14:29
Originally posted by GuN_jAcK^
pensate che se gli chiedo gentilmente di farmelo per Natale me lo regalano i miei? .... :rolleyes:

Vuoi una risposta sincera o una patetica bugia? :rolleyes:

[iena]
27-11-2002, 15:19
il nuovo super-computer :shocked:


http://space-simulator.lanl.gov/

[IGI]
06-12-2002, 15:51
sbavate un po va link (http://www.top500.org./) ;)

GuitarMaster
18-12-2002, 17:31
Guarda che beeeeeeello :eek: http://www.top500.org/top5/2002/11/one/

-=Illidan=-
07-01-2003, 16:13
il migliore è l' heart simulator kuello di guitar master!

Radeon300
07-03-2003, 13:16
il migliore è l'X1 :p

_Ka0s_
19-03-2003, 13:30
Volete mettere l'Earth Simulator con il mio P4 ????
Appunto... Non facciamolo che mi vergogno !!! :cry: :cry: :cry:
LO VOGLIO !!!!

Ps: UP ... Eccome se UP !!