Jonas Salk 1914
Jonas Salk è stato un medico e virologo statunitense nato il 28 ottobre 1914 e deceduto il 23 giugno 1995. È famoso per aver sviluppato il primo vaccino contro la poliomielite.Durante gli anni '50, Salk condusse ricerche pionieristiche per sviluppare un vaccino contro la polio, una malattia altamente contagiosa che può causare paralisi e persino morte. Nel 1955, annunciò con successo l'efficacia del suo vaccino in un ampio studio clinico su larga scala, che portò alla sua approvazione e distribuzione su vasta scala. Il vaccino di Salk si basava su una forma inattivata del virus della polio, che induceva una risposta immunitaria nel corpo umano senza causare la malattia. Questo vaccino ha giocato un ruolo cruciale nel controllo e nella quasi completa eradicazione della poliomielite in molte parti del mondo. Jonas Salk è stato un pioniere nel campo della vaccinologia, il suo lavoro e il suo impegno nella lotta contro la polio hanno avuto un impatto significativo sulla salute pubblica mondiale. La sua ricerca e il suo sviluppo del vaccino hanno salvato innumerevoli vite e rappresentano un importante contributo nella storia della medicina moderna.
Claude Elwood Shannon 1916
Claude Elwood Shannon (Petoskey, 30 aprile 1916 – Medford, 24 febbraio 2001) è stato un ingegnere e matematico statunitense, spesso definito "il padre della teoria dell'informazione". Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan. Dopo aver lavorato da ragazzo come telegrafista per la Western Union sotto la guida di Andrew Coltrey, nel 1932 iniziò gli studi presso l'Università del Michigan, dove, nel 1936, conseguì due lauree triennali: in matematica e in ingegneria elettronica. Shannon si iscrisse quindi al MIT. Qui frequentò, tra l'altro, il laboratorio nel quale, sotto la direzione di Vannevar Bush, si lavorava alla realizzazione dell'analizzatore differenziale, un calcolatore analogico. Nel 1938 conseguì il titolo di Master of Science in ingegneria elettronica presentando la tesi Un'analisi simbolica dei relè e dei circuiti. In questo studio Shannon dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori - cioè dispositivi che possono essere in uno di due stati - segue esattamente le regole dell'algebra di Boole, se si fanno corrispondere i due valori di verità - VERO e FALSO - della logica simbolica allo stato APERTO o CHIUSO di un interruttore. Pertanto un circuito digitale può essere descritto da un'espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra. Shannon definì così un potente metodo, ancora oggi usato, per l'analisi e la progettazione dei sistemi digitali di elaborazione dell'informazione. Per il dottorato di ricerca in matematica Shannon lavorò, su suggerimento del suo supervisore Bush, allo studio matematico della genetica. Trascorse un periodo presso il laboratorio di genetica di Cold Spring Harbor, un'organizzazione di ricerca, ed ottenne il dottorato di ricerca dal MIT nel 1940, discutendo la tesi Un'algebra per la genetica teorica. Dopo il PhD, tra il 1940 ed il 1941 Shannon trascorse un periodo di studio come National Research Fellow all'IAS di Princeton, sotto la supervisione di Hermann Weyl. Durante l'estate del '41, per alcuni mesi lavorò nei Laboratori Bell; subito dopo, accettò un'offerta per lavorare a tempo pieno su progetti di interesse militare. Sarebbe rimasto ai Bell Labs fino al 1972. I primi progetti di Shannon riguardarono i dispositivi automatici di puntamento antiaereo ed i problemi connessi di riduzione del rumore. Iniziò anche ad occuparsi di crittografia, lavorando al progetto di un dispositivo digitale per la segretezza delle comunicazioni telefoniche. In questo ruolo ebbe l'occasione di conoscere Alan Turing, anch'egli esperto criptoanalista, che nel 1943 passò alcuni mesi negli Stati Uniti su incarico del governo britannico. Poiché ambedue erano impegnati in attività riservate, delle quali non potevano parlare, nei loro incontri discussero principalmente di calcolatori e di intelligenza artificiale. Nel 1948 pubblicò in due parti il saggio Una teoria matematica della comunicazione, un trattato scientifico di eccelsa qualità, anche dal punto di vista della scrittura tecnica, che poneva la base teorica per lo studio dei sistemi di codificazione e trasmissione dell'informazione. In questo lavoro si concentrò sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente. Shannon utilizzò strumenti quali l'analisi casuale e le grandi deviazioni, che in quegli anni si stavano appena sviluppando. Fu in questa ricerca che Shannon coniò la parola bit, per designare l'unità elementare d'informazione. La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare le informazioni in modo da poterle trasferire e collegare tra loro. Shannon ha affermato che la maggiore ispirazione alla sua ricerca in questo campo venne dal lavoro sulla trasmissione delle informazioni del suo collega dei Bell Labs Ralph Hartley, del 1928, che aveva discusso anche con Weyl a Princeton. Nel 1949 pubblicò un altro notevole articolo, La teoria della comunicazione nei sistemi crittografici, con il quale praticamente fondò la teoria matematica della crittografia. Shannon è inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione). Nel 1956 fu eletto membro della National Academy of Sciences. Dal 1958 al 1978 fu professore al MIT.
Claude Elwood Shannon (Petoskey, 30 aprile 1916 – Medford, 24 febbraio 2001) è stato un ingegnere e matematico statunitense, spesso definito "il padre della teoria dell'informazione". Claude Shannon, lontano parente di Thomas Edison, nacque a Petoskey, una piccola città del Michigan. Dopo aver lavorato da ragazzo come telegrafista per la Western Union sotto la guida di Andrew Coltrey, nel 1932 iniziò gli studi presso l'Università del Michigan, dove, nel 1936, conseguì due lauree triennali: in matematica e in ingegneria elettronica. Shannon si iscrisse quindi al MIT. Qui frequentò, tra l'altro, il laboratorio nel quale, sotto la direzione di Vannevar Bush, si lavorava alla realizzazione dell'analizzatore differenziale, un calcolatore analogico. Nel 1938 conseguì il titolo di Master of Science in ingegneria elettronica presentando la tesi Un'analisi simbolica dei relè e dei circuiti. In questo studio Shannon dimostrò che il fluire di un segnale elettrico attraverso una rete di interruttori - cioè dispositivi che possono essere in uno di due stati - segue esattamente le regole dell'algebra di Boole, se si fanno corrispondere i due valori di verità - VERO e FALSO - della logica simbolica allo stato APERTO o CHIUSO di un interruttore. Pertanto un circuito digitale può essere descritto da un'espressione booleana, la quale può poi essere manipolata secondo le regole di questa algebra. Shannon definì così un potente metodo, ancora oggi usato, per l'analisi e la progettazione dei sistemi digitali di elaborazione dell'informazione. Per il dottorato di ricerca in matematica Shannon lavorò, su suggerimento del suo supervisore Bush, allo studio matematico della genetica. Trascorse un periodo presso il laboratorio di genetica di Cold Spring Harbor, un'organizzazione di ricerca, ed ottenne il dottorato di ricerca dal MIT nel 1940, discutendo la tesi Un'algebra per la genetica teorica. Dopo il PhD, tra il 1940 ed il 1941 Shannon trascorse un periodo di studio come National Research Fellow all'IAS di Princeton, sotto la supervisione di Hermann Weyl. Durante l'estate del '41, per alcuni mesi lavorò nei Laboratori Bell; subito dopo, accettò un'offerta per lavorare a tempo pieno su progetti di interesse militare. Sarebbe rimasto ai Bell Labs fino al 1972. I primi progetti di Shannon riguardarono i dispositivi automatici di puntamento antiaereo ed i problemi connessi di riduzione del rumore. Iniziò anche ad occuparsi di crittografia, lavorando al progetto di un dispositivo digitale per la segretezza delle comunicazioni telefoniche. In questo ruolo ebbe l'occasione di conoscere Alan Turing, anch'egli esperto criptoanalista, che nel 1943 passò alcuni mesi negli Stati Uniti su incarico del governo britannico. Poiché ambedue erano impegnati in attività riservate, delle quali non potevano parlare, nei loro incontri discussero principalmente di calcolatori e di intelligenza artificiale. Nel 1948 pubblicò in due parti il saggio Una teoria matematica della comunicazione, un trattato scientifico di eccelsa qualità, anche dal punto di vista della scrittura tecnica, che poneva la base teorica per lo studio dei sistemi di codificazione e trasmissione dell'informazione. In questo lavoro si concentrò sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente. Shannon utilizzò strumenti quali l'analisi casuale e le grandi deviazioni, che in quegli anni si stavano appena sviluppando. Fu in questa ricerca che Shannon coniò la parola bit, per designare l'unità elementare d'informazione. La sua teoria dell'informazione pose le basi per progettare sistemi informatici, partendo dal presupposto che l'importante era cercare di memorizzare le informazioni in modo da poterle trasferire e collegare tra loro. Shannon ha affermato che la maggiore ispirazione alla sua ricerca in questo campo venne dal lavoro sulla trasmissione delle informazioni del suo collega dei Bell Labs Ralph Hartley, del 1928, che aveva discusso anche con Weyl a Princeton. Nel 1949 pubblicò un altro notevole articolo, La teoria della comunicazione nei sistemi crittografici, con il quale praticamente fondò la teoria matematica della crittografia. Shannon è inoltre riconosciuto come il "padre" del teorema del campionamento, che studia la rappresentazione di un segnale continuo (analogico) mediante un insieme discreto di campioni a intervalli regolari (digitalizzazione). Nel 1956 fu eletto membro della National Academy of Sciences. Dal 1958 al 1978 fu professore al MIT.
Francis Crick 1916 e James Watson 1928
Francis Crick, nato il 8 giugno 1916 e deceduto il 28 luglio 2004, è stato un biologo molecolare britannico. James Watson, nato il 6 aprile 1928, è un biologo molecolare statunitense. Insieme, Crick e Watson sono noti per la loro scoperta della struttura a doppia elica del DNA.Nel 1953, Crick e Watson hanno pubblicato un articolo scientifico rivoluzionario nella rivista Nature, descrivendo il modello della struttura del DNA come una doppia elica, con le basi azotate che formano le "scale" della scala a spirale e i filamenti dello zucchero-fosfato costituenti i "gradini" della scala. La loro scoperta è stata uno dei più grandi contributi scientifici del XX secolo e ha gettato le basi per la moderna biologia molecolare e la genetica.Il loro lavoro sulla struttura del DNA ha portato a una migliore comprensione di come funziona il materiale genetico e ha aperto la strada allo studio dell'ereditarietà, della replicazione del DNA e della genetica molecolare. Nel 1962, Crick, Watson e Maurice Wilkins hanno ricevuto il Premio Nobel per la Medicina o Fisiologia per questa scoperta.La scoperta della struttura a doppia elica del DNA è stata fondamentale per lo sviluppo della biologia molecolare, rivoluzionando il nostro modo di comprendere la vita e l'ereditarietà.
Richard Feynman 1918
Richard Feynman è stato un fisico teorico statunitense nato il 11 maggio 1918 e deceduto il 15 febbraio 1988. È considerato uno dei fisici più influenti del XX secolo e ha fatto notevoli contributi nella meccanica quantistica, nella elettrodinamica quantistica e nella fisica delle particelle elementari.Feynman è noto per i suoi contributi alla formulazione della teoria dell'elettrodinamica quantistica (QED), un'importante teoria nella fisica delle particelle che descrive l'interazione tra la luce e la materia. Ha sviluppato la famosa rappresentazione grafica chiamata "diagrammi di Feynman" che consentono di visualizzare e calcolare le interazioni tra particelle subatomiche.I suoi diagrammi hanno rivoluzionato il modo in cui i fisici affrontano i calcoli nei processi di interazione delle particelle, semplificando notevolmente la comprensione delle interazioni fondamentali tra particelle elementari.Feynman è stato anche coinvolto nel progetto Manhattan durante la Seconda Guerra Mondiale, contribuendo allo sviluppo della bomba atomica. In seguito, è diventato noto anche per la sua esuberante personalità e le sue abilità di divulgatore scientifico. Le sue lezioni pubbliche e il suo libro "Surely You're Joking, Mr. Feynman!" hanno reso la fisica e la scienza accessibili a un pubblico più ampio, rendendo Feynman una figura popolare anche al di fuori della comunità scientifica.Per i suoi contributi alla fisica teorica, Richard Feynman ha ricevuto il Premio Nobel per la Fisica nel 1965, insieme a Julian Schwinger e Shin'ichirō Tomonaga, per il loro lavoro pionieristico nell'elettrodinamica quantistica. La sua eredità scientifica e la sua capacità di comunicare la scienza in modo accessibile lo rendono una delle figure più iconiche nella storia della fisica moderna.
Nessun commento:
Posta un commento