Claude Elwood Shannon: Rozdiel medzi revíziami

Smazaný obsah Přidaný obsah
→‎Práca: Doplnenie údajov a oprava termínových (z oblasti informatiky) i gramatických chýb
Starekolena (diskusia | príspevky)
ešte opravy
Riadok 10:
'''Claude Elwood Shannon''' (* [[30. apríl]] [[1916]], [[Petoskey (Michigan)|Petoskey]], [[Michigan]]{{--}}† [[24. február]] [[2001]], [[Medford (Massachusetts)|Medford,]] [[Massachusetts]]) bol americký [[matematik]] a inžinier, jeden zo zakladateľov matematickej teórie informácie, profesor [[Massachusetts Institute of Technology|MIT]]. Jeho hlavné práce boli venované [[Algebra logiky|algebre logiky]], teórii reléovo-kontaktných schém, [[Kybernetika|kybernetike]].<ref>http://dai.fmph.uniba.sk/~filit/fvs/shannon_c_e.html</ref>
 
Je považovaný za zakladateľa elektronickej komunikácie vďaka [[Teória informácie|''Teórie informácie'']], ktorá bola po ňom pomenovaná. Ako matematický inžinier položil tiež základy počítačového priemyslu. Ako prvý si všimol podobnosť medzi [[Boolova algebra|Boolovou algebrou]] a spínacími obvodmi telefónu, v tom čase realizovanýchrealizovanými pomocou [[relé]]. Tento poznatok aplikoval na elektrické systémy na [[Massachusetts Institute of Technology]] (MIT) v roku 1940. V roku 1942 sa stal zamestnancom [[Bell Laboratories|Bellových laboratórií]]. Počas tamojšieho pôsobenia formuloval teóriu vysvetľujúcu komunikáciu informácií a pracoval na probléme najefektívnejšieho odovzdávania informácií (''kapacita kanála)''. Vrcholom jeho matematického a inžinierskeho skúmania bola matematická teória komunikácie. Pojem ''[[Entropia (teória informácií)|informačná entropia]]''  bol dôležitým rysom v jeho teórií, v ktorej predviedol, že je rovnocenný s nedostatkom obsahu informácií v správe.<ref name=":1">http://www.nyu.edu/pages/linguistics/courses/v610003/shan.html</ref>
 
<em>“Mal som šťastie, bol som vtedy zhodou okolností zrejme jediný, kto dôverne poznal obe disciplíny (informatiku a kybernetiku).”</em><ref name=":0">https://managementmania.com/sk/claude-elwood-shannon</ref>
Riadok 33:
== Najznámejšie teórie ==
=== [[Teória informácie]] ===
{{hlavný článok|Teória informácie}}
==== Entropia ====
Jednou z najdôležitejších funkcií Shannonovej teórie bol pojem [[entropia]], ktorý predviedol, že je rovnocenný k nedostatku v obsahu informácií v správe. Podľa druhého termodynamického zákona, rovnako ako v 19. storočí, je [[Entropia (teória informácií)|entropia]] miera náhodnosti a v každom systéme stále rastie. Veľa viet by mohlo byť podstatne skrátených bez toho, aby stratili svoj význam. Shannon ukázal, že v hlučnom rozhovore sa dá signál vždy poslať bez skreslenia. Ak je správa zakódovaná tak, že má vlastnú kontrolu, bude prijatý signál s rovnakou presnosťou, ako keby neexistovali žiadne rušenia na linke. Jazyk má napríklad vstavaný kód opravy chýb. Preto je na hlučnom večierku konverzácia len čiastočne jasná, lebo polovica jazyka je nadbytočná. Shannonova metóda bola čoskoro aplikovaná nielen pre počítačové navrhovanie, ale na veľa predmetov, v ktorých bol jazyk dôležitý ako: [[lingvistika]], [[psychológia]] a [[fonetika]].<ref name=":1" />