Wednesday 25 February 2015

Sejarah Singkat Teknologi Komputer

Sejarah Singkat Teknologi Komputer

Sejarah Singkat Teknologi Komputer
Artikel ini saya buat ketika saya mendapat tugas untuk mencari di internet tentang sejarah perkembangan komputer, dan saya menemukan link barikut. Dan saya translate dalam bahasa indonesia tampa merubah sedikitpun.

Berikut artikelnya dan saya juga mencamtumkan sumber alamatnya pada link dibawah artikel :

Seragam seperti sempoa Tiongkok kuno, mesin tenun Jacquard (1805) dan mesin analisis Charles Babbage (1834). Ini juga mencakup diskusi tentang arsitektur komputasi mekanis, analog dan digital. Pada akhir 1960-an, alat mekanis, seperti kalkulator Marchant, masih ditemukan aplikasi luas dalam sains dan teknik. Selama masa-masa awal perangkat komputasi elektronik, ada banyak diskusi tentang manfaat relatif dari komputer analog vs digital. Sebenarnya, pada akhir 1960-an, komputer analog secara rutin digunakan untuk memecahkan sistem persamaan perbedaan yang terbatas yang timbul dalam pemodelan reservoir minyak. Pada akhirnya, perangkat komputasi digital terbukti memiliki kekuatan, ekonomi dan skalabilitas yang diperlukan untuk menangani perhitungan skala besar. Komputer digital sekarang mendominasi dunia komputasi di semua bidang mulai dari kalkulator tangan hingga superkomputer dan tersebar luas di masyarakat. Karena itu, sketsa singkat pengembangan ilmu pengetahuan ini terbatas pada area digital, komputer elektronik.

Evolusi komputasi digital sering terbagi dalam beberapa generasi. Setiap generasi ditandai dengan peningkatan dramatis dari generasi sebelumnya dalam teknologi yang digunakan untuk membangun komputer, organisasi internal sistem komputer, dan bahasa pemrograman. Meskipun biasanya tidak terkait dengan generasi komputer, namun ada peningkatan algoritma yang stabil, termasuk algoritma yang digunakan dalam ilmu komputasi. Sejarah berikut telah disusun dengan menggunakan generasi yang dikenal luas ini sebagai milepost.

1. Era Mekanik (1623-1945)
Gagasan menggunakan mesin untuk memecahkan masalah matematika dapat ditelusuri setidaknya sejauh awal abad ke-17. Matematikawan yang merancang dan menerapkan kalkulator yang mampu tambahan, pengurangan, perkalian, dan pembagian termasuk Wilhelm Schickhard, Blaise Pascal, dan Gottfried Leibnitz. Perangkat multi-tujuan pertama, yang dapat diprogram, mungkin adalah Mesin Selisih Charles Babbage, yang dimulai pada tahun 1823 namun tidak pernah selesai. Mesin yang lebih ambisius adalah Analytical Engine. Ini dirancang pada tahun 1842, tapi sayangnya itu hanya sebagian diselesaikan oleh Babbage. Babbage benar-benar seorang pria di depan masanya: banyak sejarawan menganggap alasan utama mengapa dia tidak dapat menyelesaikan proyek ini adalah kenyataan bahwa teknologi pada hari itu tidak cukup andal. Meskipun tidak pernah membangun mesin kerja yang lengkap, Babbage dan rekan-rekannya, terutama Ada, Countess of Lovelace, mengenali beberapa teknik pemrograman penting, termasuk cabang bersyarat, loop berulang dan variabel indeks.

Sebuah mesin yang terinspirasi oleh desain Babbage bisa dibilang yang pertama digunakan dalam ilmu komputasi. George Scheutz membaca tentang perbedaan mesin pada tahun 1833, dan bersama anaknya Edvard Scheutz mulai mengerjakan versi yang lebih kecil. Pada tahun 1853 mereka telah membangun sebuah mesin yang bisa memproses angka 15 digit dan menghitung perbedaan urutan keempat. Mesin mereka memenangkan medali emas di Pameran Paris pada tahun 1855, dan kemudian mereka menjualnya ke Observatorium Dudley di Albany, New York, yang menggunakannya untuk menghitung orbit Mars. Salah satu penggunaan komputer mekanis komersial pertama dilakukan oleh Biro Sensus Amerika Serikat, yang menggunakan peralatan punch-card yang dirancang oleh Herman Hollerith untuk membuat data tabulasi untuk sensus tahun 1890. Pada tahun 1911, perusahaan Hollerith bergabung dengan pesaing untuk menemukan perusahaan yang pada tahun 1924 menjadi International Business Machines.

2. Komputer Elektronik Generasi Pertama (1937-1953)

Tiga mesin telah dipromosikan pada berbagai waktu sebagai komputer elektronik pertama. Mesin ini menggunakan saklar elektronik, dalam bentuk tabung vakum, bukan relay elektromekanis. Pada prinsipnya switch elektronik akan lebih dapat diandalkan, karena mereka tidak memiliki bagian yang bergerak yang akan aus, namun teknologinya masih baru pada saat itu dan tabungnya sebanding dengan relay yang reliabel. Komponen elektronik memiliki satu keuntungan besar, namun: mereka bisa `` membuka '' dan `` dekat '' sekitar 1.000 kali lebih cepat daripada switch mekanis.

Upaya paling awal untuk membangun sebuah komputer elektronik adalah oleh J. V. Atanasoff, seorang profesor fisika dan matematika di Iowa State, pada tahun 1937. Atanasoff bertekad untuk membangun sebuah mesin yang akan membantu mahasiswa pascasarjana menyelesaikan sistem persamaan diferensial parsial. Pada tahun 1941 ia dan mahasiswa pascasarjana Clifford Berry telah berhasil membangun sebuah mesin yang dapat memecahkan 29 persamaan simultan dengan 29 hal yang tidak diketahui. Namun, mesin itu tidak bisa diprogram, dan lebih merupakan kalkulator elektronik.

Mesin elektronik awal kedua adalah Colossus, dirancang oleh Alan Turing untuk militer Inggris pada tahun 1943. Mesin ini memainkan peran penting dalam memecahkan kode yang digunakan oleh tentara Jerman dalam Perang Dunia II. Kontribusi utama Turing terhadap bidang ilmu komputer adalah gagasan tentang mesin Turing, sebuah formalisme matematika yang banyak digunakan dalam studi tentang fungsi komputasi. Keberadaan Colossus dirahasiakan sampai lama setelah perang usai, dan penghargaan karena Turing dan rekan-rekannya karena merancang salah satu komputer elektronik pertama bekerja lamban untuk datang.

Komputer elektronik umum pertama yang dapat diprogramkan adalah Electronic Numerical Integrator and Computer (ENIAC), yang dibangun oleh J. Presper Eckert dan John V. Mauchly di University of Pennsylvania. Pekerjaan dimulai pada tahun 1943, didanai oleh Departemen Ordnance Angkatan Darat, yang membutuhkan cara untuk menghitung balistik selama Perang Dunia II. Mesin itu tidak selesai sampai tahun 1945, tapi kemudian digunakan secara luas untuk perhitungan selama perancangan bom hidrogen. Pada saat dimatikan pada tahun 1955 telah digunakan untuk penelitian tentang perancangan terowongan angin, generator bilangan acak, dan prediksi cuaca. Eckert, Mauchly, dan John von Neumann, seorang konsultan untuk proyek ENIAC, mulai mengerjakan mesin baru sebelum ENIAC selesai. Kontribusi utama EDVAC, proyek baru mereka, adalah gagasan tentang program yang tersimpan. Ada beberapa kontroversi mengenai siapa yang berhak mendapatkan pujian atas gagasan ini, namun tidak ada yang penting mengenai gagasan itu bagi masa depan komputer dengan tujuan umum. ENIAC dikendalikan oleh satu set switch eksternal dan cepat; Untuk mengubah program yang diperlukan secara fisik mengubah pengaturan pada kontrol ini. Kontrol ini juga membatasi kecepatan operasi elektronik internal. Melalui penggunaan memori yang cukup besar untuk menampung kedua instruksi dan data, dan menggunakan program yang tersimpan dalam memori untuk mengendalikan urutan operasi aritmatika, EDVAC mampu menjalankan perintah yang besarnya lebih cepat dari pada ENIAC. Dengan menyimpan instruksi di media yang sama dengan data, perancang dapat berkonsentrasi untuk memperbaiki struktur internal mesin tanpa khawatir mencocokkannya dengan kecepatan kontrol eksternal.

Terlepas dari siapa yang berhak mendapatkan pujian atas gagasan program yang tersimpan, proyek EDVAC signifikan sebagai contoh kekuatan proyek interdisipliner yang menjadi ciri sains komputasi modern. Dengan mengenali fungsi tersebut, dalam bentuk urutan instruksi untuk komputer, dapat dikodekan sebagai angka, kelompok EDVAC mengetahui instruksinya dapat disimpan di memori komputer beserta data numerik. Gagasan menggunakan angka untuk mewakili fungsi merupakan langkah kunci yang digunakan oleh Goedel dalam teorema ketidaklengkapannya pada tahun 1937, karya von Neumann, sebagai seorang ahli logika, cukup dikenal. Latar belakang Von Neumann dalam logika, dikombinasikan dengan keterampilan teknik elektro Eckert dan Mauchly, membentuk tim interdisipliner yang sangat kuat.

Teknologi perangkat lunak selama periode ini sangat primitif. Program pertama ditulis dalam kode mesin, yaitu pemrogram langsung menuliskan angka yang sesuai dengan instruksi yang ingin mereka simpan di memori. Pada tahun 1950-an pemrogram menggunakan notasi simbolis, yang dikenal sebagai bahasa assembly, kemudian menyerahkan notasi simbolik ke dalam kode mesin. Kemudian program yang dikenal sebagai assemblers melakukan tugas penerjemahan.

Sebagai primitif seperti dulu, mesin elektronik pertama ini cukup berguna dalam ilmu dan teknik terapan. Atanasoff memperkirakan bahwa dibutuhkan waktu delapan jam untuk menyelesaikan serangkaian persamaan dengan delapan hal yang tidak diketahui menggunakan kalkulator Marchant, dan 381 jam untuk menyelesaikan 29 persamaan untuk 29 yang tidak diketahui. Komputer Atanasoff-Berry mampu menyelesaikan tugas kurang dari satu jam.

Masalah pertama terjadi pada ENIAC, simulasi numerik yang digunakan dalam desain bom hidrogen, Dibutuhkan 20 detik, berlawanan dengan empat puluh jam menggunakan kalkulator mekanis. Eckert dan Mauchly kemudian mengembangkan apa yang bisa dibilang merupakan komputer komersial pertama yang sukses, UNIVAC; Pada tahun 1952, 45 menit setelah pemungutan suara ditutup dan dengan 7% suara dihitung, UNIVAC memperkirakan Eisenhower akan mengalahkan Stevenson dengan 438 suara pemilihan (dia berakhir dengan 442).

3. Generasi Kedua (1954-1962)

Generasi kedua melihat beberapa perkembangan penting di semua tingkat desain sistem komputer, mulai dari teknologi yang digunakan untuk membangun sirkuit dasar ke bahasa pemrograman yang digunakan untuk menulis aplikasi ilmiah.

Saklar elektronik di era ini didasarkan pada teknologi dioda diskrit dan transistor dengan waktu perpindahan sekitar 0,3 mikrodetik. Mesin pertama yang akan dibangun dengan teknologi ini termasuk TRADIC di Bell Laboratories pada tahun 1954 dan TX-0 di Laboratorium Lincoln MIT. Teknologi memori didasarkan pada core magnetik yang bisa diakses secara acak, berlawanan dengan jalur delay merkuri, dimana data disimpan sebagai gelombang akustik yang melintas secara berurutan melalui medium dan hanya bisa diakses saat data digerakkan oleh I / O antarmuka.

Inovasi penting dalam arsitektur komputer termasuk register indeks untuk mengendalikan loop dan floating point units untuk perhitungan berdasarkan bilangan real. Sebelum mengakses elemen berturut-turut dalam array cukup membosankan dan sering melibatkan penulisan kode modifikasi diri (program yang memodifikasi diri mereka saat mereka berlari; pada saat itu dipandang sebagai penerapan prinsip yang kuat bahwa program dan data pada dasarnya sama, ini Praktik sekarang tidak disukai karena sangat sulit dilakukan debug dan tidak mungkin dilakukan dalam bahasa tingkat tinggi). Operasi floating point dilakukan oleh perpustakaan rutinitas perangkat lunak di komputer awal, namun dilakukan pada perangkat keras pada mesin generasi kedua.

Selama generasi kedua ini banyak bahasa pemrograman tingkat tinggi diperkenalkan, termasuk FORTRAN (1956), ALGOL (1958), dan COBOL (1959). Mesin komersial penting era ini termasuk IBM 704 dan penerusnya, 709 dan 7094. Yang terakhir memperkenalkan prosesor I / O untuk throughput yang lebih baik antara perangkat I / O dan memori utama.

Generasi kedua juga melihat dua superkomputer pertama yang dirancang khusus untuk pengolahan numerik dalam aplikasi ilmiah. Istilah `` superkomputer '' umumnya diperuntukkan bagi mesin yang merupakan urutan yang lebih kuat daripada mesin lain pada masanya. Dua mesin tahun 1950-an pantas mendapatkan gelar ini. Komputer Riset Atom Livermore (LARC) dan IBM 7030 (alias Stretch) adalah contoh awal mesin yang memiliki operasi memori tumpang tindih dengan operasi prosesor dan memiliki bentuk pemrosesan paralel yang primitif.

4. Generasi Ketiga (1963-1972)

Generasi ketiga membawa keuntungan besar dalam kekuatan komputasi. Inovasi di era ini termasuk penggunaan sirkuit terpadu, atau IC (perangkat semikonduktor dengan beberapa transistor yang terpasang pada satu komponen fisik), kenangan semikonduktor mulai digunakan sebagai pengganti inti magnetik, microprogramming sebagai teknik untuk merancang prosesor kompleks secara efisien, kedatangan Umur pipelining dan bentuk pemrosesan paralel lainnya (dijelaskan secara rinci di Bab CA), dan pengenalan sistem operasi dan pembagian waktu.

IC pertama didasarkan pada sirkuit integrasi skala kecil (SSI), yang memiliki sekitar 10 perangkat per sirkuit (atau `` chip ''), dan berevolusi menjadi penggunaan sirkuit terpadu skala menengah (MSI), yang sampai pada 100 perangkat per keping Sirkuit cetak berlapis banyak dikembangkan dan memori inti digantikan oleh kenangan solid dan solid. Perancang komputer mulai memanfaatkan paralelisme dengan menggunakan beberapa unit fungsional, operasi CPU dan I / O yang tumpang tindih, dan pipelining (paralelisme internal) baik dalam aliran instruksi maupun arus data. Pada tahun 1964, Seymour Cray mengembangkan CDC 6600, yang merupakan arsitektur pertama yang menggunakan paralelisme fungsional. Dengan menggunakan 10 unit fungsional terpisah yang dapat beroperasi secara simultan dan 32 bank memori independen, CDC 6600 mampu mencapai tingkat komputasi dari 1 juta operasi floating point per detik (1 Mflops). Lima tahun kemudian CDC merilis 7600, yang juga dikembangkan oleh Seymour Cray. CDC 7600, dengan unit fungsional pipelined-nya, dianggap sebagai prosesor vektor pertama dan mampu mengeksekusi pada 10 Mflops. IBM 360/91, yang dirilis pada periode yang sama, kira-kira dua kali lebih cepat dari CDC 660. Ia menggunakan instruksi di depan, memisahkan unit fungsi floating point dan integer dan aliran instruksi pipelined. IBM 360-195 sebanding dengan CDC 7600, yang menghasilkan sebagian besar kinerjanya dari memori cache yang sangat cepat. Komputer SOLOMON, yang dikembangkan oleh Westinghouse Corporation, dan ILLIAC IV, yang dikembangkan bersama oleh Burroughs, Departemen Pertahanan dan Universitas Illinois, mewakili komputer paralel pertama. Texas Instrument Advanced Scientific Computer (TI-ASC) dan STAR-100 dari CDC adalah prosesor vektor pipelined yang menunjukkan kelayakan desain tersebut dan menetapkan standar untuk prosesor vektor berikutnya.

Di awal generasi ketiga ini Cambridge dan University of London bekerja sama dalam pengembangan CPL (Combined Programming Language, 1963). CPL adalah, menurut pengarangnya, upaya untuk menangkap hanya fitur penting ALGOL yang rumit dan canggih. Namun, seperti ALGOL, CPL memang besar dengan banyak fitur yang sulit dipelajari. Dalam upaya penyederhanaan lebih lanjut, Martin Richards dari Cambridge mengembangkan subset dari CPL yang disebut BCPL (Basic Computer Programming Language, 1967). Pada tahun 1970 Ken Thompson Bell Labs mengembangkan penyederhanaan CPL lain yang hanya disebut B, sehubungan dengan implementasi awal sistem operasi UNIX. komentar)

5. Generasi Keempat (1972-1984)

Generasi berikutnya dari sistem komputer melihat penggunaan integrasi skala besar (perangkat LSI - 1000 per chip) dan integrasi skala sangat besar (VLSI - 100.000 perangkat per chip) dalam pembangunan elemen komputasi. Pada skala ini seluruh prosesor akan sesuai dengan satu chip, dan untuk sistem sederhana, keseluruhan komputer (prosesor, memori utama, dan pengendali I / O) dapat muat pada satu chip. Gerbang penundaan turun menjadi sekitar 1ns per gerbang.

Kenangan semikonduktor menggantikan ingatan inti sebagai memori utama di sebagian besar sistem; Sampai saat ini penggunaan memori semikonduktor di kebanyakan sistem terbatas pada register dan cache. Selama periode ini, prosesor vektor kecepatan tinggi, seperti CRAY 1, CRAY X-MP dan CYBER 205 mendominasi scene komputasi kinerja tinggi. Komputer dengan memori utama yang besar, seperti CRAY 2, mulai muncul. Berbagai arsitektur paralel mulai muncul; Namun, selama periode ini usaha komputasi paralel sebagian besar bersifat eksperimental dan kebanyakan ilmu komputasi dilakukan pada prosesor vektor. Mikrokomputer dan workstation diperkenalkan dan melihat penggunaan yang luas sebagai alternatif dari komputer mainframe time-shared.

Perkembangan perangkat lunak meliputi bahasa tingkat tinggi seperti FP (pemrograman fungsional) dan Prolog (pemrograman dalam logika). Bahasa ini cenderung menggunakan gaya pemrograman deklaratif yang bertentangan dengan gaya imperatif Pascal, C, FORTRAN, et al. Dengan gaya deklaratif, seorang pemrogram memberikan spesifikasi matematis tentang apa yang harus dihitung, sehingga banyak rincian tentang bagaimana seharusnya dihitung pada sistem kompilator dan / atau runtime. Bahasa-bahasa ini belum digunakan secara luas, namun sangat menjanjikan sebagai notasi untuk program yang akan berjalan di komputer paralel secara besar-besaran (sistem dengan lebih dari 1.000 prosesor). Kompiler untuk bahasa yang sudah mapan mulai menggunakan teknik pengoptimalan yang canggih untuk memperbaiki kode, dan kompiler untuk pengolah vektor mampu melakukan vectorisasi loop sederhana (mengubah loop menjadi satu instruksi yang akan memulai operasi di seluruh vektor).

Dua peristiwa penting menandai bagian awal generasi ketiga: pengembangan bahasa pemrograman C dan sistem operasi UNIX, keduanya ada di Bell Labs. Pada tahun 1972, Dennis Ritchie, berusaha untuk memenuhi tujuan desain CPL dan menggeneralisasi Thompson's B, mengembangkan bahasa C. Thompson dan Ritchie kemudian menggunakan C untuk menulis versi UNIX untuk DEC PDP-11. UNIX berbasis C ini segera di porting ke berbagai komputer, membebaskan pengguna dari keharusan mempelajari sistem operasi baru setiap kali mereka mengganti perangkat keras komputer. UNIX atau turunan UNIX sekarang menjadi standar de facto pada hampir semua sistem komputer.

Sebuah peristiwa penting dalam pengembangan ilmu komputasi adalah publikasi laporan Lax. Pada tahun 1982, Departemen Pertahanan AS (DOD) dan National Science Foundation (NSF) mensponsori sebuah panel mengenai Large Scale Computing in Science and Engineering, yang diketuai oleh Peter D. Lax. Laporan Lax menyatakan bahwa inisiatif asing yang agresif dan fokus dalam komputasi berperforma tinggi, terutama di Jepang, sangat berbeda dengan tidak adanya perhatian nasional yang terkoordinasi di Amerika Serikat. Laporan tersebut mencatat bahwa peneliti universitas memiliki akses yang tidak memadai ke komputer dengan kinerja tinggi. Salah satu yang pertama dan paling terlihat dari tanggapan terhadap laporan Lax adalah pembentukan pusat supercomputing NSF. Tahap I pada program NSF ini dirancang untuk mendorong penggunaan komputasi berkinerja tinggi di universitas-universitas Amerika dengan membuat siklus dan pelatihan pada tiga (dan yang lebih baru)) superkomputer yang ada yang tersedia segera. Setelah tahap Tahap I ini, pada tahun 1984-1985 NSF menyediakan dana untuk pendirian lima pusat superkomputer Tahap II.

Pusat Tahap II, berlokasi di San Diego (San Diego Supercomputing Center); Illinois (Pusat Nasional Aplikasi Supercomputing); Pittsburgh (Pittsburgh Supercomputing Center); Cornell (Cornell Theory Center); Dan Princeton (John von Neumann Center), telah sangat sukses dalam menyediakan waktu komputasi pada superkomputer ke komunitas akademis. Selain itu mereka telah menyediakan banyak program pelatihan yang berharga dan telah mengembangkan beberapa paket perangkat lunak yang tersedia secara gratis. Pusat Tahap II ini terus meningkatkan upaya komputasi berkinerja tinggi yang substansial di Laboratorium Nasional, khususnya Departemen Energi (DOE) dan situs NASA.

6. Generasi Kelima (1984-1990)

Perkembangan sistem komputer generasi berikutnya ditandai terutama oleh penerimaan pemrosesan paralel. Sampai saat ini, paralelisme terbatas pada pemrosesan pipelining dan vektor, atau paling banyak ke beberapa prosesor yang berbagi pekerjaan. Generasi kelima melihat pengenalan mesin dengan ratusan prosesor yang semuanya bisa mengerjakan berbagai bagian dari satu program. Skala integrasi dalam semikonduktor berlanjut dengan kecepatan yang luar biasa - pada tahun 1990 dimungkinkan untuk membangun chip dengan satu juta komponen - dan kenangan semikonduktor menjadi standar di semua komputer.

Perkembangan baru lainnya adalah meluasnya penggunaan jaringan komputer dan meningkatnya penggunaan workstation pengguna tunggal. Sebelum tahun 1985 pemrosesan paralel skala besar dipandang sebagai tujuan penelitian, namun dua sistem yang diperkenalkan sekitar saat ini adalah tipikal produk komersial pertama yang didasarkan pada pemrosesan paralel. Sequent Balance 8000 menghubungkan hingga 20 prosesor ke modul memori bersama tunggal (namun masing-masing prosesor memiliki cache lokalnya sendiri). Mesin ini dirancang untuk bersaing dengan DEC VAX-780 sebagai tujuan umum sistem Unix, dengan setiap prosesor mengerjakan pekerjaan pengguna yang berbeda. Namun Sequent menyediakan perpustakaan subrutin yang memungkinkan pemrogram menulis program yang akan menggunakan lebih dari satu prosesor, dan mesin tersebut banyak digunakan untuk mengeksplorasi algoritma paralel dan teknik pemrograman.

Intel iPSC-1, yang dijuluki `` hypercube '', mengambil pendekatan yang berbeda. Alih-alih menggunakan satu modul memori, Intel menghubungkan setiap prosesor ke memori sendiri dan menggunakan antarmuka jaringan untuk menghubungkan prosesor. Arsitektur memori terdistribusi ini berarti memori sudah tidak lagi menjadi bottleneck dan sistem besar (menggunakan lebih banyak prosesor) bisa dibangun. IPSC-1 terbesar memiliki 128 prosesor. Menjelang akhir periode ini, jenis ketiga prosesor paralel diperkenalkan ke pasar. Dalam gaya mesin ini, yang dikenal sebagai data-parallel atau SIMD, ada beberapa ribu prosesor yang sangat sederhana. Semua prosesor bekerja di bawah satu unit kontrol tunggal; Yaitu jika unit kontrol mengatakan `` menambahkan a ke b '' maka semua prosesor menemukan salinan lokal mereka dan menambahkannya ke salinan lokal b. Mesin di kelas ini meliputi Connection Machine dari Thinking Machines, Inc., dan MP-1 dari MasPar, Inc.

Komputasi ilmiah pada periode ini masih didominasi oleh pengolahan vektor. Sebagian besar produsen prosesor vektor memperkenalkan model paralel, namun hanya sedikit prosesor (dua sampai delapan) dalam mesin paralel ini. Di bidang jaringan komputer, teknologi wide area network (WAN) dan jaringan area lokal (LAN) dikembangkan dengan pesat, merangsang transisi dari lingkungan komputasi mainframe tradisional ke lingkungan komputasi terdistribusi di mana setiap pengguna memiliki workstation mereka sendiri. Untuk tugas yang relatif sederhana (mengedit dan menyusun program, membaca surat) namun berbagi sumber daya besar dan mahal seperti server file dan superkomputer. Teknologi RISC (gaya organisasi internal CPU) dan penurunan biaya untuk RAM membawa keuntungan luar biasa dalam daya komputasi dari workstation dan server dengan biaya yang relatif rendah.

7. Generasi keenam (1990-?)
Transisi antar generasi dalam teknologi komputer sulit didefinisikan, terutama saat berlangsung. Beberapa perubahan, seperti pengalihan dari tabung vakum ke transistor, segera tampak sebagai perubahan mendasar, namun ada pula yang jelas hanya dalam retrospeksi. Banyak perkembangan dalam sistem komputer sejak tahun 1990 mencerminkan perbaikan bertahap terhadap sistem yang telah ada, dan dengan demikian sulit untuk mengklaim bahwa mereka mewakili transisi ke generasi baru, namun perkembangan lainnya akan menjadi perubahan yang signifikan.

Pada bagian ini kami menawarkan beberapa penilaian tentang perkembangan terkini dan tren saat ini yang menurut kami akan memiliki dampak signifikan pada ilmu komputasi.

Generasi ini dimulai dengan banyak keuntungan dalam komputasi paralel, baik di area perangkat keras maupun dalam pemahaman yang lebih baik tentang bagaimana mengembangkan algoritma untuk mengeksploitasi beragam, arsitektur paralel secara besar-besaran. Sistem paralel sekarang bersaing dengan prosesor vektor dalam hal daya komputasi total dan kebanyakan mengharapkan sistem paralel mendominasi masa depan.

Kombinasi arsitektur paralel / vektor sudah mapan, dan satu perusahaan (Fujitsu) telah mengumumkan rencana untuk membangun sebuah sistem dengan lebih dari 200 prosesor vektor high end-nya. Pabrikan telah menetapkan sendiri tujuan pencapaian kinerja teraflops (10 aritmatika per detik) pada pertengahan dekade ini, dan jelas ini akan diperoleh hanya oleh sebuah sistem dengan seribu prosesor atau lebih. Teknologi workstation terus membaik, dengan desain prosesor sekarang menggunakan kombinasi RISC, pipelining, dan parallel processing. Akibatnya sekarang mungkin untuk membeli workstation desktop seharga sekitar $ 30.000 yang memiliki daya komputasi keseluruhan yang sama (100 megaflops) sebagai superkomputer generasi keempat. Perkembangan ini telah memicu minat terhadap komputasi heterogen: sebuah program yang dimulai pada satu workstation dapat menemukan workstation yang tidak berfungsi di tempat lain di jaringan lokal untuk menjalankan subtugas paralel.

Salah satu perubahan paling dramatis pada generasi keenam adalah pertumbuhan eksplosif jaringan area luas. Bandwidth jaringan telah berkembang pesat dalam beberapa tahun terakhir dan akan terus membaik dalam beberapa tahun ke depan. Tingkat transmisi T1 sekarang standar untuk jaringan regional, dan tulang punggung nasional '' yang menghubungkan jaringan regional menggunakan T3. Teknologi jaringan menjadi lebih luas daripada basis kuat aslinya di universitas dan laboratorium pemerintah karena dengan cepat menemukan aplikasi dalam pendidikan K-12, jaringan komunitas dan industri swasta. Sedikit lebih dari satu dekade setelah peringatan tersebut disuarakan dalam laporan Lax, masa depan infrastruktur sains komputasi yang kuat cerah. Komitmen federal terhadap komputasi berperforma tinggi telah diperkuat dengan berlakunya dua bagian undang-undang yang sangat penting: Undang-Undang Komputasi Kinerja Tinggi tahun 1991, yang menetapkan Program Komputasi dan Komunikasi Kinerja Tinggi (HPCCP) dan Infrastruktur Informasi dan Teknologi Sen. Gore Undang-undang tahun 1992, yang membahas spektrum masalah yang luas mulai dari komputasi berkinerja tinggi hingga akses jaringan yang diperluas dan kebutuhan untuk membuat teknologi terdepan tersedia bagi pendidik dari taman kanak-kanak sampai lulus sekolah.

Dalam membawa survei yang merangkum pengembangan infrastruktur sains komputasi mutakhir ini, kami mengamati bahwa anggaran Presiden FY 1993 berisi $ 2,1 miliar untuk program pendidikan matematika, sains, teknologi dan sains, dengan peningkatan sebesar 43% dari angka FY 90.

Artikel diatas merupakan artikel yang beralamat dari link dibawah ini yang saya terjemahkan
adapun  tujuannya adalah sebagai sumber pengetahuan.

sumber : http://web.itu.edu.tr/~gerzeli/History.htm

No comments:

Post a Comment

Silahkan Berkomentar yang sopan!!!