Suchergebnisse
Zur Navigation springen
Zur Suche springen
Übereinstimmungen mit Seitentiteln
- …rania-Verlag, Leipzig 1990, ISBN 3-332-00254-6, S. 372.</ref> ist in der [[Informationstheorie]]: …OI=10.1002/j.1538-7305.1948.tb01338.x}}</ref> und prägte damit die moderne Informationstheorie. …24 KB (3.420 Wörter) - 21:55, 13. Mär. 2025
- …aS|redundare}}, „überlaufen, sich reichlich ergießen“) beschreibt in der [[Informationstheorie]] diejenigen [[Information]]en oder [[Daten]], die in einer Informationsque …sst sich durch redundante Informationen fehlertolerant über einen [[Kanal (Informationstheorie)|Informationskanal]] durchführen, da unter Umständen verloren gegangene ode …7 KB (905 Wörter) - 04:09, 28. Nov. 2022
- Bei der Untersuchung der von [[Claude Shannon]] eingeführten [[Entropie (Informationstheorie)|Entropie]] konzentrierte sich Frank auf den Term, der den Beitrag einzelne {{SORTIERUNG:Auffalligkeit #Informationstheorie}} …5 KB (655 Wörter) - 19:36, 6. Jan. 2025
Übereinstimmungen mit Inhalten
- …ie]] unabhängig von der Länge einer Nachricht eine Messung der [[Entropie (Informationstheorie)|Entropie]] bezogen auf ein Zeichen. * [https://graphics.ethz.ch/~rolfad/download/hints5.pdf Informationstheorie - (P)Review] (abgerufen am 12. Februar 2018) …1 KB (193 Wörter) - 14:15, 11. Nov. 2018
- Die '''Verbundentropie''' ist ein Maß für den [[Entropie (Informationstheorie)|mittleren Informationsgehalt]] mehrerer Nachrichtenquellen. * [[Entropie (Informationstheorie)]] …2 KB (298 Wörter) - 09:27, 17. Mai 2022
- …Man bezeichnet damit einen [[Zustandslosigkeit|gedächtnisfreien]] [[Kanal (Informationstheorie)|informationstheoretischen Kanal]], der ein [[Bit]] (0 oder 1) am Eingang… * Jürgen Göbel: ''Informationstheorie und Codierungsverfahren.'' Grundlagen und Anwendungen, 1. Auflage, VDE Verl …2 KB (245 Wörter) - 09:14, 9. Feb. 2021
- …enzübergang]] gleichwertig. Man erhält einen Ausdruck, der die [[Entropie (Informationstheorie)|Entropie]] pro Symbol unabhängig von der Blocklänge beschreibt, die so gen [[Kategorie:Informationstheorie]] …1 KB (149 Wörter) - 07:05, 29. Mär. 2024
- {{Dieser Artikel|behandelt die Äquivokation in der ''Informationstheorie''. Zur Verwendung des Terminus in der ''Semantik'' siehe [[Homonym]].}} …usammenhang als ''[[Informationsgehalt]]'' zu verstehen und geht auf die [[Informationstheorie]] von [[Claude Elwood Shannon|Claude Shannon]] zurück, welcher die Grundlag …3 KB (416 Wörter) - 15:41, 26. Jul. 2018
- * Die [[Entropie (Informationstheorie)|Entropie]] in der Informationstheorie ist unimodal. …2 KB (244 Wörter) - 20:35, 29. Sep. 2021
- …'''Sh''') ist die nach dem amerikanischen Mathematiker und Begründer der [[Informationstheorie]] [[Claude Elwood Shannon]] benannte Einheit für den [[Informationsgehalt]] …Shannon begründeten [[Informationstheorie]] und entspricht der [[Entropie (Informationstheorie)|Entropie]] der betreffenden Nachrichtenquelle und in der [[Biometrie]] dem …4 KB (501 Wörter) - 21:31, 9. Jan. 2025
- …'' (benannt nach [[Alfréd Rényi]]) eine Verallgemeinerung der [[Entropie (Informationstheorie)|Shannon-Entropie]]. [[Kategorie:Informationstheorie]] …3 KB (431 Wörter) - 15:19, 2. Jan. 2025
- ….</ref> Es gleicht der Definition der Redundanz, das auf der ''[[Entropie (Informationstheorie)|Shannon-Entropie]]'' basiert, wenn <math>\alpha = 1</math>, welche in der [[Kategorie:Informationstheorie]] …3 KB (456 Wörter) - 05:20, 4. Okt. 2023
- …er Kanal''' (englisch binary symmetric channel, kurz BSC) ist ein [[Kanal (Informationstheorie)|informationstheoretischer Kanal]], bei dem die [[Wahrscheinlichkeit]] eine * Rudolf Mathar: ''Informationstheorie. Diskrete Modelle und Verfahren.'' B.G. Teubner Verlag, Stuttgart 1996, ISB …4 KB (586 Wörter) - 02:25, 27. Jan. 2024
- == Zusammenhang mit der Informationstheorie == …uhte. Seine weiteren Forschungen im Rahmen der Kybernetik bauten auf der [[Informationstheorie]] Shannons auf.<ref>E. Schramm (2005): ''Genese und „Verschwinden“ der Kybe …4 KB (538 Wörter) - 07:49, 21. Jun. 2024
- …aS|redundare}}, „überlaufen, sich reichlich ergießen“) beschreibt in der [[Informationstheorie]] diejenigen [[Information]]en oder [[Daten]], die in einer Informationsque …sst sich durch redundante Informationen fehlertolerant über einen [[Kanal (Informationstheorie)|Informationskanal]] durchführen, da unter Umständen verloren gegangene ode …7 KB (905 Wörter) - 04:09, 28. Nov. 2022
- …[[Informationsgehalt|Informationsgehalts (Entscheidungsgehalts)]] in der [[Informationstheorie]]. Die Bezeichnung ''Nat'' ist in der Norm IEC 60027-3 oder ISO 2382-16 fes [[Kategorie:Informationstheorie]] …2 KB (311 Wörter) - 12:41, 11. Mai 2023
- …mationstheorie)|redundanzfrei]] ist, ist der Libaw-Craig-Code [[Redundanz (Informationstheorie)|redundant]] (''R'' = 1,7). Damit ist natürlich eine gewisse Fehlererkennun …2 KB (294 Wörter) - 18:43, 4. Jan. 2025
- …, benannt nach [[Josiah Willard Gibbs]], eine Aussage über die [[Entropie (Informationstheorie)|Entropie]] einer diskreten [[Wahrscheinlichkeitsverteilung]]. Man erhält… In der Informationstheorie bietet es sich an als Basis <math>b=2</math> zu wählen. …5 KB (814 Wörter) - 15:40, 7. Okt. 2024
- Eine '''Decodierregel''' bezeichnet in der [[Informationstheorie]] und [[Kodierungstheorie|Codierungstheorie]], genauer bei der [[Kanalcodie …''q'' Buchstaben. Die Übertragung geht dabei über einen gestörten [[Kanal (Informationstheorie)|Kanal]]. Dadurch können durch Übertragungsfehler einzelne Buchstaben verän …6 KB (749 Wörter) - 20:18, 23. Mai 2018
- …1</math>, da die [[codiert]]en Daten durch die Codierung mehr [[Redundanz (Informationstheorie)|Redundanz]], also zusätzliche Symbole, enthalten als die uncodierten Daten …1 KB (159 Wörter) - 11:20, 19. Dez. 2020
- …iff aus der [[Informationstheorie]] und stellt ein Maß für die [[Entropie (Informationstheorie)|Entropie]] einer kontinuierlichen [[Zufallsvariable]] dar, ähnlich der [[S …rößten. Sie wird deshalb auch zur Modellierung von Störungen beim [[Kanal (Informationstheorie)|Kanalmodell]] verwendet, da sie ein [[Worst-Case]]-Modell für Störungen da …5 KB (680 Wörter) - 22:07, 15. Dez. 2021
- …ner [[Markow-Kette|Markov-Quelle]] erster Ordnung, welche die [[Redundanz (Informationstheorie)|Redundanz]] einer Quelle zum Ausdruck bringt und somit minimal sein soll, Die Transinformation steht in einem engen Zusammenhang zur [[Entropie (Informationstheorie)|Entropie]] und zur [[Bedingte Entropie|bedingten Entropie]]. …8 KB (1.181 Wörter) - 03:04, 2. Jan. 2025
- == Informationstheorie == …ion/Person_sein_und_Geschichten_erz%C3%A4hlen/DO4hnVNxnuUC?hl=de&gbpv=1&dq=Informationstheorie+%C3%BCberraschungswert&pg=PA203&printsec=frontcover Tim Henning, ''Person… …5 KB (679 Wörter) - 20:05, 6. Mär. 2025