La citazione odierna è di Claude Shannon, matematico Americano, padre della teoria dell’ informazione
Vita, scoperte, teorie ed opere di Claude Shannon
Claude Elwood Shannon nasce a Petoskey il giorno 30 aprile 1916.
Tra i suoi antenati spicca il nome di Thomas Edison.
Da ragazzo lavorò come telegrafista per la Western Union per poi iscriversi all’Università del Michigan e conseguire ben due lauree: una in matematica e una in ingegneria elettronica.
Il lavoro da lui svolto nell’elaborazione della tesi dimostra, mediante l’uso di un circuito elettrico dotato di un interruttore, che il fluire di un segnale elettrico attraverso una rete di interruttori segue le regole dell’algebra di Boole . Shannon pose così la base teorica dei sistemi di codificazione, elaborazione e trasmissione digitale dell’informazione.
Lavorò anche nel campo della genetica e collabora alla costruzione di un calcolatore analogico chiamato “analizzatore differenziale di Vannevar Bush”.
La sua tesi di dottorato presentata nel 1940 e si intitola “Un’algebra per la genetica teorica”.
Dal 1941 inizia a lavorare nei celebri Laboratori Bell e dal 1950 svolge anche l’ attività di di professore presso il MIT.
- Nel 1948 pubblica in due parti il saggio “Una teoria matematica della comunicazione” in cui si concentra sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente.
Rimane nei laboratori Bell fino al 1972e grazie agli studi qui svolti definisce l’entropia nell’informazione, iniziando a porre le basi della teoria dell’informazione.
La mia più grande preoccupazione era come chiamarla. Ho pensato di chiamarla “informazione”, ma alla parola si era troppo abituati, così ho deciso di chiamarlo “incertezza”. Quando ho parlato con John von Neumann, ha avuto un’idea migliore. Von Neumann mi ha detto: si dovrebbe chiamare entropia, per due motivi. In primo luogo la funzione di incertezza è stata utilizzata in meccanica statistica sotto quel nome, quindi ha già un nome. In secondo luogo, e più importante, nessuno sa realmente che cosa realmente è l’entropia, quindi in un dibattito si avrà sempre un vantaggio.
Durante una successiva ricerca coniò il noto termine bit, per definire l’ unità elementare dell’ informazione.
La sua teoria dell’informazione si basa sul concetto di necessità di immagazzinare le informazioni e di collegarle tra loro per poterle poi trasferire. Questa teoria pose le basi dei sistemi informatici.
Nel 1949 aveva inoltre pubblicato un articolo scientifico di notevole rilevanza, dal titolo “La teoria della comunicazione nei sistemi crittografici”, con il quale praticamente fonda la teoria matematica della crittografia.
Claude Shannon è inoltre riconosciuto come il padre del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione).
Nel 1956 fu eletto membro della National Academy of Sciences. Dal 1958 al 1978 fu professore al MIT.
Claude Shannon è morto il 24 febbraio 2001 , dopo lunga malattia .
Fonte : parlaparla, Biografieonline