Jak Začít?

Máš v počítači zápisky z přednášek
nebo jiné materiály ze školy?

Nahraj je na studentino.cz a získej
4 Kč za každý materiál
a 50 Kč za registraci!




biofyzika zkouška 2

DOCX
Stáhnout kompletní materiál zdarma (17.54 MB)

Níže je uveden pouze náhled materiálu. Kliknutím na tlačítko 'Stáhnout soubor' stáhnete kompletní formátovaný materiál ve formátu DOCX.

-Máme jev, jehož výsledkem může být A1…An výsledků se stejnou pravděpodobností výskytu

-S rostoucím počtem možností výsledku daného jevu roste také stupeň neurčitosti celého jevu

-Stupeň neurčitostí je dán počtem dílčích neurčitostí; stupeň neurčitosti = informační entropie

  • U n vzájemně se vylučujících výsledků jevu s pravděpodobnostmi P(A1), P(A2)… P(An) je stupeň neurčitosti Ni jednoho možného výsledku dán součinem jeho pravděpodobnosti a logaritmu jeho pravděpodobnosti:

  • Informační entropie celého systému je dána součtem dílčích neurčitostí:

  • Představte si dva stroje, která generují písmena A B C D

  • První stroj generuje písmena náhodně, tzn. se stejnou pravděpodobností, tj. 25 % pro každý znak

A B C D

25% 25% 25% 25%

  • Druhý stroj generuje písmena s následující pravděpodobností:

A B C D

50% 12,5% 12,5% 25%

  • Který stroj produkuje více informace?

  • C. E. Shannon: máte-li odhadnout následující symbol, jaký je minimální počet otázek, které musíte položit, abychom zjistili daný symbol?

    • Nejefektivnější způsob je položit otázku, která rozdělí pravděpodobnost na polovinu

  • Počet otázek:

    • První stroj = pA*2 + pB*2 + pC*2 + pD*2 = 2

    • Druhý stroj = pA*1 + pB*3 + pC*3 + pD*2 = 1,75

    • = na 100 symbolů u prvního stroje položíme 200 otázek, u druhého 175 otázek

    • Druhý stroj produkuje méně informace, protože je u něj menší nejistota na výstupu = menší entropie

Entropie je suma pravděpodobnosti každého znaku násobená počtem otázek k získání tohoto znaku

  • Entropie je maximální, jsou-li všechny výsledky stejně pravděpodobné, odchýlíme-li se od stejně pravděpodobných výsledků nebo vznikne předvídatelnost, entropie se snižuje

  • Jednotka entropie = 1 bit (0/1; ano/ne; +/-…)

Informační systém

  • Nejjednodušší systém – zdroj informace - informační kanál – příjemce informace

  • Informaci je zpravidla nutné přeměnit vysílačem na signál (materiální nosič informace) - kódování

  • Signál se mění v přijímači zpět na informaci – dekódování

  • Elementární signál = nese 1 bit informace

  • Kapacita informačního kanálu – maximální množství přenesené informace za časovou jednotku

  • Vlivy, které snižují množství původní informace = šum

  • Pro zvýšení spolehlivosti je nutné přenášet určité množství informace navíc = redundantní informace

  • V lidském organismu – přenos informace nervově a humorálně

  • Tři základní úrovně z hlediska posouzení přenosu a zpracování informace:

    1. Řízení základních biochemických reakcí

    2. Autonomní systémy (humorální i nervové mechanismy)

    3. Centrální nervový systém

Řízení a regulace

  • Mechanismy, zajišťující dosažení požadovaného stavu

  • Řízení – změny v chování daného systému, ke kterým dochází na základě přijaté informace z řídící části

  • Řízené systémy

    • Ovládané

    • Regulované (zpětná vazba)

Témata, do kterých materiál patří