NURFITRIA'S SITE: 2016

Jumat, 17 Juni 2016

Pengertian Sistem Input Dan Output Komputer I/O

Sistem Input Dan Output Komputer atau sering juga disingkat dengan I/O adalah suatu mekanisme pengiriman data secara bertahap dan terus menerus melalui suatu aliran data dari proses ke peranti (begitu pula sebaliknya). Fungsi I/O pada dasarnya adalah mengimplementasikan algoritma I/O pada level aplikasi. Hal ini dikarenakan kode apliksi sangat fleksibel, dan bugs aplikasi tidak mudah menyebabkan sebuah sistem crash.


Teknik Pengoperasian Perangkat I/O



a.      Perangkat I/O terprogram (programmed I/O)

Merupakan perangkat I/O komputer yang dikontrol oleh program. Contohnya, perintah mesin in, out, move. Perangkat I/O terprogram tidak sesuai, untuk pengalihan data dengan kecepatan tinggi karena dua alasan yaitu:
ü   Memerlukan overhead (ongkos) yang tinggi, karena beberapa perintah program harus dieksekusi untuk setiap kata data yang dialihkan antara peralatan eksternal dengan memori utama.
ü    Banyak peralatan periferal kecepatan tinggi memiliki mode operasi sinkron, yaitu pengalihan data dikontrol oleh clock frekuensi tetap, tidak tergantung CPU.


b.      Perangkat berkendalikan interupsi (Interrupt I/O)

Interupsi lebih dari sebuah mekanisme sederhana untuk mengkoordinasi pengalihan I/O. Konsep interupsi berguna di dalam sistem operasi dan pada banyak aplikasi kontrol di mana pemrosesan rutin tertentu harus diatur dengan seksama, relatif peristiwa-peristiwa eksternal.


c.       DMA (Direct Memory Address)

Merupakan suatu pendekatan alternatif yang digunakan sebagai unit pengaturan khusus yang disediakan untuk memungkinkan pengalihan blok data secara langsung antara peralatan eksternal dan memori utama tanpa intervensi terus menerus oleh CPU.

Evolusi telah terjadi pada sistem komputer. Evolusi antara lain terjadi peningkatan kompleksitas dan kecanggihan komponen-komponen sistem komputer. Evolusi sangat tampak pada fungsi-fungsi I/O, yaitu sebagai berikut:

ü      Pemroses secara langsung mengendalikan peralatan I/O. Teknik ini masih dilakukan sampai saat ini, yaitu untuk peralatan sederhana yang dikendalikan mikroprosesor untuk menjadi intelligent device.
ü   Peralatan dilengkapi pengendali I/O (I/O controller). Pemroses masih menggunakan I/O terprogram tanpa interupsi. Pada tahap ini, pemroses tak perlu memperhatikan rincian-rincian spesifik interface peralatan.
ü  Tahap ini sama dengan tahap 2 ditambah fasilitas interupsi. Pemroses tidak perlu menghabiskan waktu untuk menunggu selesainya operasi I/O. Teknik ini meningkatkan efisiensi pemroses.
ü    Pengendali I/O diberi kendali memori langsung lewat DMA. Pengendali dapat memindahkan blok data ke atau dari memori tanpa melibatkan pemroses kecuali di awal dan akhir transfer.
ü   Pengendali I/O ditingkatkan menjadi pemroses yang terpisah dengan instruksi-instruksi khusus yang ditujukan untuk operasi I/O. Pemroses pusat mengendalikan/memerintahkan pemroses I/O untuk mengeksekusi program I/O yang terdapat di memori utama.
ü    Pemroses I/O mengambil dan mengeksekusi instruksi-instruksi ini tanpa intervensi pemroses utama (pusat). Dengan teknik ini dimungkinkan pemroses pusat menspesifikasikan barisan aktivitas I/O dan hanya diinterupsi ketika seluruh barisan telah diselesaikan.
ü   Pengendali I/O mempunyai memori lokal yang menjadi miliknya dan komputer juga memiliki memori sendiri. Dengan arsitektur ini, sekumpulan besar peralatan I/O dapat dikendalikan dengan keterlibatan pemroses pusat yang minimum.

Arsitektur ini digunakan untuk pengendalian komunikasi dengan terminalterminal interaksi. Pemroses I/O mengambil alih kebanyakan tugas yang melibatkan pengendalian terminal. Evolusi berlangsung terus, jalur yang dilalui oleh evolusi adalah agar fungsi-fungsi I/O dapat dilakukan lebih banyak dan lebih banyak lagi tanpa keterlibatan pemroses pusat. Pemroses pusat yang tidak disibukkan dengan tugas-tugas yang berhubungan dengan I/O akan meningkatkan kinerja sistem. Tahap 5 & 6 merupakan tahap perubahan utama, yaitu konsep pengendali I/O mampu mengeksekusi program sendiri.

Prinsip-Prinsip Perangkat I/O

Terdapat dua sasaran perancangan perangkat I/O, yaitu:

a.    Efisiensi

 Merupakan aspek penting karena operasi I/O karena sering menjadi operasi yang menimbulkan bottleneck pada sistem komputer/komputasi.


b. Generalitas (Device-independence)

Selain berkaitan dengan simplisitas dan bebas dari kesalahan diharapkan juga menangani semua gerak peralatan secara beragam. Pernyataan ini diterapkan dari cara proses-proses memandang peralatan I/O dan cara sistem operasi mengelola peralatan-peralatan dan operasi-operasi I/O.

Perangkat lunak diorganisasikan sebagai satu barisan lapisan. Lapisan-lapisan lebih bawah berurusan menyembunyikan kepelikan-kepelikan perangkatkeras. Untuk untuk lapisan-lapisan lebih atas berurusan memberikan interface yang bagus, bersih, nyaman dan seragam ke pemakai.

Masalah-masalah penting yang terdapat dan harus diselesaikan pada perancangan manajemen I/O adalah:
ü    Penamaan yang seragam (uniform naming) Nama berkas atau peralatan adalah string atau integer, tidak tergantung pada peralatan sama sekali.
ü     Penanganan kesalahan (error handling) Umumnya penanganan kesalahan ditangani sedekat mungkin dengan perangkat keras.
ü     Transfer sinkron vs asinkron, Kebanyakan fisik I/O adalah asinkron. Pemroses mulai transfer dan mengabaikannya untuk melakukan kerja lain sampai interupsi tiba. Programprogram pemakai sangat lebih mudah ditulis jika operasi-operasi I/O berorientasi blok. Setelah perintah read, program kemudian secara otomatis ditunda sampai data tersedia di buffer.
ü      Shareable vs dedicated Beberapa peralatan dapat dipakai bersama seperti disk, tapi ada juga peralatan yang harus hanya satu pemakai yang dibolehkan memakainya pada satu saat. Contohnya peralata yang harus dedicated misalnya printer.

Sekian dari saya semoga artikel diatas dapat menambah wawasan kita tentang komputer. ^_^


Nama                    : Wulan Nurfitria
NIM                      : 222157398
Fakultas Komputer Universitas MH Thamrin

Apa sih itu RISC dan CISC ??

Ada yang tau? kali ini penulis akan membahas tentang serba-serbi RISC dan CISC, penasaran? yuk langsung aja kita simak pembahasan di bawah ini...  

1.     Pengertian RICS
RICS singkatan dari Reduced Instruction Set Computer. Merupakan bagian dari arsitektur mikroprosessor, berbentuk kecil dan berfungsi untuk negeset istruksi dalam komunikasi diantara arsitektur yang lainnya.

1.        Karakteristik

    Arsitektur RISC memiliki beberapa karakteristik diantaranya :

ü    Siklus mesin ditentukan oleh waktu yang digunakan untuk mengambil dua buah operand dari register, melakukan operasi ALU, dan menyimpan hasil operasinya kedalam register, dengan demikian instruksi mesin RISC tidak boleh lebih kompleks dan harus dapat mengeksekusi secepat mikroinstruksi pada mesin-mesin CISC. Dengan menggunakan instruksi sederhana atau instruksi satu siklus hanya dibutuhkan satu mikrokode atau tidak sama sekali, instruksi mesin dapat dihardwired. Instruksi seperti itu akan dieksekusi lebih cepat dibanding yang sejenis pada yang lain karena tidak perlu mengakses penyimapanan kontrol mikroprogram saat eksekusi instruksi berlangsung.
ü    Operasi berbentuk dari register-ke register yang hanya terdiri dari operasi load dan store yang mengakses memori Fitur rancangan ini menyederhanakan set instruksi sehingga menyederhanakan pula unit control. Keuntungan lainnya memungkinkan optimasi pemakaian register sehingga operand yang sering diakses akan tetap ada di penyimpan berkecepatan tinggi. Penekanan pada operasi register ke register merupakan hal yang unik bagi perancangan RISC.
ü  Penggunaan mode pengalamatan sederhana, hampir sama dengan instruksi menggunakan pengalamatan register,. Beberapa mode tambahan seperti pergeseran dan pe-relatif dapat dimasukkan selain itu banyak mode kompleks dapat disintesis pada perangkat lunak dibanding yang sederhana, selain dapat menyederhanakan sel instruksi dan unit kontrol.
ü  Penggunaan format-format instruksi sederhana, panjang instruksinya tetap dan disesuaikan dengan panjang word. Fitur ini memiliki beberapa kelebihan karena dengan menggunakan field yang tetap pendekodean opcode dan  pengaksesan operand register dapat dilakukan secara bersama-sama

2.     Ciri-ciri

ü        Instruksi berukuran tunggal
ü        Ukuran yang umum adalah 4 byte
ü        Jumlah pengalamatan data sedikit, biasanya kurang dari 5 buah.
ü   Tidak terdapat pengalamatan tak langsung yang mengharuskan melakukan sebuah akses    memori agar memperoleh alamat operand lainnya dalam memori.
ü    Tidak terdapat operasi yang menggabungkan operasi load/store dengan operasi aritmatika,    seperti penambahan ke memori dan penambahan dari memori.
ü     Tidak terdapat lebih dari satu operand beralamat memori per instruksi
ü        Tidak mendukung perataan sembarang bagi data untuk operasi load/ store.
ü    Jumlah maksimum pemakaian memori manajemen bagi suatu alamat data adalah sebuah    instruksi .
ü       Jumlah bit bagi integer register spesifier sama dengan 5 atau lebih, artinya sedikitnya 32 buah  register integer dapat direferensikan sekaligus secara eksplisit.
ü    Jumlah bit floating point register spesifier sama dengan 4 atau lebih, artinya sedikitnya 16  register floating point dapat direferensikan sekaligus secara eksplisit.

2. Pengertian CISC

    Complex instruction-set computing atau Complex Instruction-Set Computer (CISC) “Kumpulan instruksi komputasi kompleks”) adalah sebuah arsitektur dari set instruksi dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah, seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam memory, semuanya sekaligus hanya di dalam sebuah instruksi. Karakteristik CISC dapat dikatakan bertolak-belakang dengan RISC.

1.          Karakteristik

ü  Sarat informasi memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat
ü  Dimaksudkan untuk meminimumkan jumlah perintah yang diperlukan untuk mengerjakan pekerjaan yang diberikan. (Jumlah perintah sedikit tetapi rumit) Konsep CISC menjadikan mesin mudah untuk diprogram dalam bahasa rakitan

2.       Ciri-ciri

ü  Jumlah instruksi banyak
ü  Banyak terdapat perintah bahasa mesin
ü  Instruksi lebih kompleks

3.  KELEBIHAN dan KEKURANGAN
Teknologi RISC relatif masih baru oleh karena itu tidak ada perdebatan dalam menggunakan RISC ataupun CISC, karena tekhnologi terus berkembang dan arsitektur berada dalam sebuah spektrum, bukannya berada dalam dua kategori yang jelas maka penilaian yang tegas akan sangat kecil kemungkinan untuk terjadi.

Kelebihan

ü  Berkaitan dengan penyederhanaan kompiler, dimana tugas pembuat kompiler untuk menghasilkan rangkaian instruksi mesin bagi semua pernyataan HLL. Instruksi mesin yang kompleks seringkali sulit digunakan karena kompiler harus menemukan kasus-kasus yang sesuai dengan konsepnya. Pekerjaan mengoptimalkan kode yang dihasilkan untuk meminimalkan ukuran kode, mengurangi hitungan eksekusi instruksi, dan meningkatkan pipelining jauh lebih mudah apabila menggunakan RISC dibanding menggunakan CISC.
ü  Arsitektur RISC yang mendasari PowerPC memiliki kecenderungan lebih menekankan pada referensi register dibanding referensi memori, dan referensi register memerlukan bit yang lebih sedikit sehingga memiliki akses eksekusi instruksi lebih cepat.
ü  Kecenderungan operasi register ke register akan lebih menyederhanakan set instruksi dan menyederhanakan unit kontrol serta pengoptimasian register akan menyebabkan operand-operand yang sering diakses akan tetap berada dipenyimpan berkecepatan tinggi.
ü  Penggunaan mode pengalamatan dan format instruksi yang lebih sederhana.

Kekurangan

ü  Program yang dihasilkan dalam bahasa simbolik akan lebih panjang (instruksinya lebih banyak).
ü  Program berukuran lebih besar sehingga membutuhkan memori yang lebih banyak, ini tentunya kurang menghemat sumber daya.
ü  Program yang berukuran lebih besar akan menyebabkan menurunnya kinerja, yaitu instruksi yang lebih banyak artinya akan lebih banyak byte-byte instruksi yang harus diambil.
ü  Pada lingkungan paging akan menyebabkan kemungkinan terjadinya page fault lebih besar.


4.   Kesimpulan
Rancangan RISC dapat memperoleh keuntungan dengan mengambil sejumlah feature CISC dan Rancangan CISC dapat memperoleh keuntungan dengan mengambil sejumlah feature RISC.


Hasilnya adalah bahwa sejumlah rancangan RISC yang terbaru, yang dikenal sebagai PowerPC, tidak lagi “murni” RISC dan rancangan CISC yang terbaru, yang dikenal sebagai Pentium, memiliki beberapa karakteristik RISC. Sehingga antara RISC dan CISC saling mengisi.

Sekian dulu ya... semoga bermanfaat ^_^

Nama    : Wulan Nurfitria
NIM       : 222157398
Fakultas Komputer Universitas MH. Thamrin

Komputer Paralel


Pada artikel kali ini saya akan membahas tentang apa itu Komputer Pararel? Untuk lebih jelasnya yuk kita simak mulai dari sejarahnya.


Sejarah Singkat
         Pada tahun 1958 Peneliti IBM, John Cocke dan Daniel Slotnick membahas tentang pemanfaatan paralelisme di dalam komputasi numerik untuk pertama kalinya. Burroughs Corporation memperkenalkan D825 pada tahun 1962, sebuah komputer dengan empat buah prosesor yang mengakses 16 modul memori dengan bantuan saklar bar-silang (crossbar switch).


Latar Belakang
ü  Rata-rata yang diperlukan untuk menjalankan sebuah instruksi, yang kemudian akan Komputasi paralel memanfaatkan beberapa elemen pemroses secara berkesinambungan untuk menyelesaikan permasalahan, dengan cara memecah masalah menjadi bagian-bagian independen, kemudian masing-masing bagian tersebut diselesaikan oleh masing-masing elemen pemroses sesuai dengan algoritma secara serempak. Elemen pemroses dapat terdiri dari unit pemroses yang heterogen dan dapat pula terdiri dari unit pemroses yang homogen.
ü  Penskalaan frekuensi menjadi alasan utama dalam peningkatan performa komputer sejak pertengahan 1980an sampai dengan 2004. Waktu eksekusi (runtime) dari sebuah program adalah banyaknya instruksi dikali dengan waktu rata-rata sebuah instruksi. Dengan menganggap faktor lain adalah konstan, meningkatkan detak frekuensi (clock frequency) akan menurunkan waktu mengurangi waktu eksekusi.


Pengertian Pengolahan Paralel
Merupakan pemrosesan informasi yang menekankan pada manipulasi elemen-elemen data pada satu atau lebih prosesor secara serentak untuk memecahkan masalah tunggal.
 Kebutuhan akan Pengolahan Paralel:
1.  Dahulu:
* Ilmu klasik didasarkan pada observasi, teori dan eksperimen
* Observasi dari fenomena menghasilkan hipotesa
* Teori dikembangkan untuk menerangkan fenomena
*Design eksperimen untuk menguji teori (dilakukan secara fisik)       
  Kendala : tidak etis, biaya mahal, waktu lama
2. Sekarang:
 * Eksperimen dilakukan melalui simulasi numeric
 * Ilmu sekarang: observasi, teori, eksperimen, simulasi numeric
   Kendala : butuh komputer yang powerful


Pengertian Komputasi Paralel
Komputasi paralel adalah suatu bentuk komputasi dimana instruksi-instruksi dijalankan secara berkesinambungan. Komputasi paralel telah digunakan untuk melakukan komputasi yang mensyaratkan unjuk kerja yang tinggi (high-performance computing).
ü  Komputer yang memiliki kemampuan untuk melakukan pengolahan data (informasi) secara paralel
ü   Program komputer paralel lebih susah untuk dibangun dibandingkan dengan program komputer serial, hal ini disebabkan keserempakan menimbulkan masalah yang potensial didalam membagi pekerjaan menjadi subpekerjaan dan menggabungkan kembali subpekerjaan tersebut menjadi hasil oleh perangkat lunak,  diantaranya yg disebut sebagai “kondisi berebut(race condition).
ü   Komunikasi dan sinkronisasi diantara unit pemroses (processing unit) menjadi satu diantara tantangan terbesar untuk menghasilkan program paralel dengan performa yang baik.

Jenis-jenis Komputer Paralel
         Berdasarkan tingkatan  perangkat keras yang mendukung paralelisme, secara umum komputer-komputer paralel dapat diklasifikasikan:
ü  Multicore processing
ü  Symmetric multiprocessing
ü  Distributed computing
ü  Cluster computing
ü  Massive parallel processing
ü  Grid computing
ü  Specialized parallel computer

Bentuk Pegolahan Paralel
Sebagian besar sistem komputer menggunakan hardware yang menjalankan direct memory acces (DMA) antara perangkat I/0 dan memori  utama.transfer data dalam kedua arah anatara memori utama dan disk magnetik dapat dicapai dengan bantuan kontroler DMA yang beropersi secara pararel dengan prosesor.
Ada dua aspek mendasar dalam pengolahan pararel yaitu:
ü  Beberapa subtugasnya dapat dikerjakan secara pararel oleh komponen hardware yang berbeda.
ü  Harus ada beberapa saran untuk menginisiasi dan mengkoordinasi aktifitas pararel tersebut


Paradigma Pengolahan Paralel
1.         M. J. FLYNN (Taksonomi Flynn)
Membedakan komputer paralel ke dalam empat kelas berdasarkan konsep aliran data (data stream) dan aliran instruksi (instruction stream), sebagai :
ü     SISD  (Single Instruction stream, Single Data stream)
ü     SIMD  (Single Instruction stream,  Multiple Data stream)
ü     MISD  (Multiple Instruction stream, Single Data stream)
ü     MIMD  (Multiple Instruction stream, Multiple Data stream)
2.  T.G. LEWIS
T.G. Lewis membedakan komputer paralel ke dalam dua kelas,sebagai :
ü     Synchronous
ü     Asynchronous
3.    MICHAEL J. QUINN
Quinn membedakan paralelisme ke dalam dua jenis, yaitu :
ü     Data Parallelism
ü     Control Parallelism
Sekian dulu pembahasan mengenai Komputer Pararel, semoga bisa bermanfaat J

Nama    : Wulan Nurfitria
NIM       : 222157398

Fakultas Komputer Universitas MH. Thamrin

Evolusi dan Kinerja Komputer

Dalam pembahasan di artikel sebel umnya mengenai Pengenalan Organisasi Komputer, kali ini penulis akan membahas hal-hal yang berkaitan dengan Organisasi Komputer salah satunya tentang Evolusi dan Kinerja Komputer. Langsung aja yuk kita simak…


Generasi Pertama
Ciri umum komputer generasi pertama:
ü  Menggunakan tabung hampa (VaccumTube)
ü  Program dibuat dalam bahasa mesin
ü  Memori utama dibuat dengan teknologi magnetic core storage
ü  Ukuran fisik komputer besar
ü  Membutuhkan daya listrik besar 

1.        ENIAC (Electronic Numerical Integrator And Computer)
ü Dirancang oleh John Mauchly dan John Presper Enkert di Universitas Pennsylvania
ü Berat 30 ton, volume 15000 kaki persegi, berisi lebih dari 18000 tabung vakum, membutuhkan daya 140 KW, melakukan operasi penambahan 5000 operasi/detik

ü Memori terdiri dari 20 accumulator, masing- masing accumulator menampung 10 digit


2.        Mesin Von Newmann (Komputer IAS)
ü Memori komputer IAS (Computer of Institute for Advanced Studies) terdiri dari 1000 lokasi penyimpanan yang di sebut word
ü Satu word terdiri dari 40 binary digit
ü Satu word dapat juga terdiri dari 20 bit instruksi, masing-masing instruksi terdiri dari 8 bit kode operasi dan 12 bit alamat
ü Memiliki 21 buah instruksi
ü Instruksi-instruksi dibagi menjadi 5 kelompok, yaitu : Data transfer,Unconditional branch, Conditional branch, Arthmetic dan address modify
Struktur IAS

3.        UNIVAC (Universal Automatic Computer)
ü  Dirancang oleh Mauchly dan Eckert
ü  Produk pertama yang dihasilkan oleh The Eckert-Mauchly Computer Company Komputer komersial pertama yang dipasarkan



Generasi  Kedua
Ciri umum komputer generasi kedua :
ü  Teknologi dasar rangkaiannya berupa transistor
ü  Menggunakan bahasa pemrograman fortran, cobol, Algol
ü  Menggunakan memori sekunder berupa magnetic tape
ü  Ukuran fisik komputer lebih kecil dari komputer generasi pertama
ü  Membutuhkan daya listrik yang lebih kecil


Generasi  Ketiga
Ciri umum komputer generasi ketiga :
ü   Teknologi dasar pembangun rangkaian yang digunakan adalah IC (Integrated Circuit)
ü   Layar monitor dapat menampilkan gambar dan grafik
ü   Menggunakan magnetic tape sebagai memori sekunder
ü   Memiliki fitur jaringan
ü   Penggunaan daya listrik lebih hemat



Generasi-generasi Selanjutnya
Setelah generasi ketiga perkembangan komputer didasarkan pada perkembangan IC (integrated Circuit)
ü   SSI (Small Scale Integration) Sampai 100 komponen elektronik per chip
ü   MSI (Medium Scale Integration) 100-3000 komponen elektronik per chip
ü   LSI (Large Scale Integration) 3000-100000 komponen elektronik per chip
ü   VLSI (Very Large Scale Integration)100000-1 juta komponen per chip
ü   ULSI (Ultra Large Scale Integration) Lebih dari 1 juta komponen per chip

IBM
ü   Perangkat pemroses Punched-card
ü   1953 - IBM701
ü   Komputer pertama dengan program tersimpan
ü   Kalkulasi Scientific
ü   1955 - IBM702
ü   Aplikasi Bisnis
ü   Mengawali seri 700/7000

Hukum Moore (Moore’s Law)
ü   Peningkatan kepadatan komponen dalam chip
ü   Gordon Moore – co-founder dari Intel
ü   Jumlah transistor pada sebuah chip berlipat dua setiap tahun
ü   Sejak 1970’s perkembangan sedikit melambat
ü   Jumlah  transistor berlipat dua setiap18 bulan
ü   Harga sebuah chip hampir tidak berubah
ü   Peningkatan kepadatan berarti jalur listrik makin pendek, sehingga unjuk kerja makin tinggi
ü   Ukuran yang makin kecil meningkatkan fleksibilitas
ü   Mengurangi kebutuhan daya dan pendingin
ü   Sambungan makin sedikit, makin handal


Nama    : Wulan Nurfitria
NIM       : 222157398
Fakultas Komputer Universitas MH. Thamrin


Pengenalan Organisasi Komputer

Artikel kali ini penulis akan membahas tentang Organisasi Komputer. Menurut kalian apa sih perbedaan antara Arsitektur Komputer dengan Organisasi Komputer? Ada yang tau? Daripada debat, kali ini penulis akan memberikan penjelasannya. yuk kita simak pesan-pesan di bawah ini.

Pengertian Komputer
Komputer adalah sebuah sistem yang berhirarki, komputer dapat dianggap sebagai struktur sejumlah komponen beserta fungsinya yang dijelaskan sebagai fungsinya yang dijelaskan sebagai fungsi kolektif struktur dan fungsi internalnya

Arsitektur Komputer
Arsitektur berkaitan dengan atribut-atribut sebuah sistem yang tampak (visible) bagi seorang pemrogram, yaitu atribut-atribut yang memiliki dampak langsung pada eksekusi logis sebuah program.
Contoh atribut arsitektural : Set instruksi, jumlah bit, mekanisme I/O, teknik pengalamatan memori

Organisasi Komputer           
Organisasi Komputer berkaitan dengan unit-unit operasional dan interkoneksinya yang merealisasikan spesifikasi arsitektural.          

Contoh atribut organisasional : signal-signal kontrol, interface komputer dan pheriperal dan teknologi memori yang digunakan.

Struktur dan Fungsi
Struktur adalah cara komponen-komponen dalam sebuah komputer saling terkait.        
v   CPU (Cental Processing Unit)
     Mengontrol operasi komputer dan membentuk fungsi- fungsi pengolahan datanya
v   Main Memory
     Tempat menyimpan data
v   Input Output (I/O)
     Memindahkan data antara komputer dengan lingkungan luarnya.
v   System Interconections
     Beberapa mekanisme komunikasi antara CPU, main memory dan I/O

Struktur Tingkat Atas



Struktur CPU




Struktur Control Unit

Fungsi adalah operasi pada masing-masing komponen sebagai bagian dari struktur. Sebuah komputer dapat melakukan fungsi pengolahan data, penyimpanan data, pemindahan data dan kontrol.

Sekian pembahasan tentang perkenalan Organisasi Komputer dari penulis, semoga bisa bermanfaat ya J


Nama    : Wulan Nurfitria
NIM       : 222157398
Fakultas Komputer Universitas MH. Thamrin