Curcio Medie

Il termine, che deriva dal francese, nasce dall’unione di due parole, «informazione» e «automatica», e indica la scienza che studia l’elaborazione delle informazioni attraverso strumenti elettronici.
L’esigenza da cui ha origine l’informatica è fare in modo che un dispositivo possa processare automaticamente le informazioni, vale a dire compiere un’operazione in modo autonomo in seguito all’immissione di dati da parte di un operatore. A tale scopo le informazioni vengono rappresentante attraverso un linguaggio binario (o digitale), vale a dire formato da due simboli: «0» e «1». Questi simboli ben si adattano alle caratteristiche di un elaboratore, infatti possono corrispondere ai due stati di polarizzazione di una sostanza magnetizzabile (v. magnetismo), ai due stati di carica elettrica, al passaggio/non passaggio di corrente attraverso un conduttore o ancora al passaggio/non passaggio di luce attraverso un cavo ottico.
L’unità minima di informazione in un elaboratore elettronico è il bit (binary digit), che può essere «00», «01», «10», «11». I suoi multipli sono il byte (otto bit), il kilobyte (1000 byte), il megabyte (10.000.000 di byte), il gigabyte (100.000.000.000 di byte).
Ogni informazione corrisponde a una sequenza di «0» e «1». Per esempio, secondo il codice Ascii (American Standard Code for Information Interchange), la lettera «c» corrisponde al byte «01100011».

La capacità di un elaboratore elettronico di portare a termine un’operazione restituendo un risultato dipende dall’efficacia dell’algoritmo ideato per compiere il processo. In termini pratici questo avviene attraverso il linguaggio di programmazione.
Per rappresentare in modo digitale un’immagine occorre suddividerla in pixel, a ciascuno dei quali sarà attribuita una stringa in codice binario.
I campi di applicazione dell’informatica sono numerosi: lo sviluppo degli elaboratori elettronici, la crittografia, la computer grafica, la ricerca operativa, l’automazione, l’intelligenza artificiale.