Tehnologii Vlsi

În anii 1980, în timp ce industria se confrunta cu un boom în computerele de acasă, au avut loc și alte evoluții la fel de interesante în partea științifică a industriei.

Este cunoscut faptul că Internetul a fost inventat în cadrul Agenției de Cercetare și Dezvoltare a Apărării din SUA (DARPA), dar acesta nu este singurul proiect DARPA care a avut un impact puternic asupra întregii industrii. Proiectul VLSI este doar de la astfel de evoluții: popularitatea relativ mică este pur și simplu incomensurabilă cu importanța sa. VLSI reprezintă o integrare pe scară largă - un circuit integrat ultra-mare sau VLSI. La începutul anilor optzeci, totul a mers la trecerea la astfel de scheme, însă inginerii lor de dezvoltare s-au confruntat cu probleme serioase.

Odată cu creșterea numărului de tranzistori care se potrivesc pe un circuit integrat, proiectarea procesoarelor a devenit din ce în ce mai complicată, iar atunci când numărul de tranzistoare a depășit o sută de mii, metodele vechi au început să ducă la erori. Era nevoie de un nou mod de a proiecta, și cu greu nimeni nu ar fi surprins că decizia a fost de a folosi un calculator.

Profesorul de la Institutul de Tehnologie din California Carver Meade și programator de la laboratorul PARC de la Xerox, Lin Conway, a propus să creeze un sistem de proiectare automată (CAD) care să ajute la transformarea procesoarelor în aproape orice complexitate. În acel moment, pentru a lucra cu un astfel de program ar avea nevoie de un supercomputer. astfel încât DARPA a trebuit să finanțeze nu numai crearea CAD, ci și în jurul valorii de: dezvoltarea stațiilor de lucru și chiar a sistemului de operare. Ulterior, Sun Microsystems și Silicon Graphics vor crește de la aceste proiecte. și ca sistem de operare va fi creată o nouă filială a UNIX - Berkley Distribution Software (BSD).

Mead și Conway credeau că, dacă dezvoltarea procesatorilor ar fi mai bine automatizată, atunci firmele mici sau chiar studenții le-ar putea face în cursul instruirii. Ideea sa dovedit a fi nu numai adevărată, ci și foarte reușită: cu ajutorul noilor instrumente, procesoarele au devenit mult mai ușor de proiectat și a existat posibilitatea de a face acest lucru separat de producție. În plus, noul software a permis să se dezvăluie caracteristicile ascunse până în prezent ale unei structuri de procesoare.

Procesoarele timpurii de opt biți precum Intel 8080 sau Motorola 6800 au reușit să execute doar câteva instrucțiuni simple. De exemplu, nu a existat nici o instrucțiune specială pentru înmulțirea numerelor, această acțiune necesită mai multe comenzi de procesoare - compensări și adăugiri. Această abordare pare incomodă și, prin urmare, decizia de a adăuga instrucțiuni mai complexe a fost intuitivă.

Sa considerat, de asemenea, că operațiunile încorporate direct în hardware ar fi efectuate mult mai repede decât cele executate sub formă de programe. Astfel, în dezvoltările ulterioare, creatorii procesoarelor au început să adauge sprijin pentru tot mai multe instrucțiuni noi. Multiplicarea a două numere, de exemplu, sa transformat într-o singură comandă, dar dispozitivul microcipului a devenit mai complicat, deoarece a început să includă un subsistem separat destinat multiplicării. Deci, au existat procesoare cu un set complex de comenzi. Această familie include următoarele chips-uri Intel. și alte procesoare, populare în anii 1980.

Să nu spun că setul complex de echipe nu are meritele sale, dar au fost nevoiți să plătească un preț bun. Dacă primii procesatori dintr-o singură bifă a generatorului ceasului au efectuat o instrucțiune simplă, atunci instrucțiunile mai complicate au început să necesite mai multe cicluri.

În cadrul aceluiași proiect VSLI, un profesor de la Universitatea din California de la Berkeley, David Patterson, a realizat un studiu în care a găsit o abordare diferită față de ingineria procesoarelor, pe care a numit-o RISC. Sa dovedit că dacă limitați setul de instrucțiuni numai la cele care pot fi executate într-un singur ciclu, puteți crește viteza executării lor și, astfel, puteți îmbunătăți performanța generală. Logica vieții dictează că acest lucru nu ar trebui să fie: programele devin mai lungi! Dar când vine vorba de sisteme de sute de mii de componente, logica zilnică se poate odihni, iar răspunsul corect va fi modelarea și simularea.

În același timp, Patterson a reușit să reducă în mod semnificativ influența "strangulării" arhitecturii von Neumann - un canal lent între procesor și memoria RAM. RISC are un număr mai mare de registre decât CISC, ceea ce permite accesul mai puțin frecvent la memoria RAM - mai ales dacă programul este trecut printr-un compilator de optimizare și utilizează resursele. Chiar mai bine, această abordare funcționează în sisteme multi-core sau multi-procesoare, unde mai multe calculatoare accesează aceeași memorie. Cu cât o fac mai rar, cu atât mai puține ori fiecare dintre ele trebuie să aștepte rândul lor și, în consecință, cu atât crește productivitatea.

notițe

Articole similare