Обсуждение:Теория информации (KQvr';yuny&Mykjnx nuskjbgenn)
Статья «Теория информации» входит в общий для всех языковых разделов Википедии расширенный список необходимых статей. Её развитие вплоть до статуса избранной является важным направлением работы русского раздела Википедии. |
Проект «Информационные технологии» (уровень II, важность для проекта высшая)
Эта статья тематически связана с вики-проектом «Информационные технологии», цель которого — создание и улучшение статей по темам, связанным с информационными технологиями. Вы можете её отредактировать, а также присоединиться к проекту, принять участие в его обсуждении и поработать над требуемыми статьями. |
Проект «Физика» (уровень II, важность для проекта средняя)
Эта статья тематически связана с вики-проектом «Физика», цель которого — создание и улучшение статей по темам, связанным с физикой. Вы можете её отредактировать, а также присоединиться к проекту, принять участие в его обсуждении и поработать над требуемыми статьями. |
Untitled1
[править код]Теория информации — раздел прикладной математики, определяющий понятие информации,..
— Определение
- и как же она определяет это понятие? Tpyvvikky 18:17, 29 сентября 2010 (UTC)
Откуда вообще взято это определение? Теория информации является разделом Термодинамики. (Тимон Берковец (обс.) 17:46, 10 апреля 2019 (UTC))
- Да что уж там термодинамики... Смелее надо: разделом, скажем, литературоведения или там медицины. Евгений Мирошниченко 18:33, 10 апреля 2019 (UTC)
- но ведь математической теорией шенноновской теории информации является статистическая термодинамика (и понятия энтропия, температура, информация — термодинамические термины), а литературоведение или медицина вряд ли имеет к этому прямое отношение... — Тимон Берковец (обс.) 20:30, 12 июня 2019 (UTC)
- > информация — термодинамический термин — о как, открытие за открытием! Кстати, термин "температура" широко используется в медицине, медицина -- раздел термодинамики? "Энтропия" в термодинамике и энтропия в теории информации --- не одно и то же. Ознакомьтесь: Энтропия#Употребление в различных дисциплинах. Евгений Мирошниченко 16:11, 13 июня 2019 (UTC)
Untitled
[править код]- Как определяет? Контекстуально. И даже - я не побоюсь этого слова - аксиоматически. Игорь Михайлович 19:00, 19 октября 2010 (UTC)
- смело. (может даже где есть эти контексты и аксиомы?) Tpyvvikky 21:33, 19 октября 2010 (UTC)
- Да какая уж тут смелость - такое встречается сплошь и рядом, и не только в теории информации. А "где есть" - смотрите, например, у Шеннона. Открывайте хотя бы сборник "Работы по теории информации и кибернетике" (Изд-во иностранной литературы, Москва, 1963 год) - и вперёд. В разделе "Теория информации" найдёте практически всё, что вам нужно. Начинайте с самого начала, с "Математической теории связи". Игорь Михайлович 18:58, 20 октября 2010 (UTC)
- короче — по факту сути вопроса написать что-нибудь (кроме "почитайте") можете ? Tpyvvikky 22:43, 20 октября 2010 (UTC)
- похоже, вы просто не понимаете, что такое неявное определение. вы спросили, где есть, вам ответили. можете не читать, но разместить на странице обсуждения весь контекст, определяющий понятие «информация», не позволят правила Википедии :) 217.67.177.50 12:30, 21 октября 2010 (UTC)
- - для участника 217.67.177.50 — где в цитируемом тексте (см. выше) упомянуто про ваше "неявное определение"(укажите пальцем, если не трудно)? и где тогда этот пресловутый "набор аксиом и контекстов", подверждающий это ваше(?) утверждение, если это всё-таки определение "неявное"? Tpyvvikky 13:30, 23 октября 2010 (UTC)
- По факту вопроса ответ был исчерпывающим. Как и отметившийся выше анрег, я порекомендовал бы вам разобраться с видами определений, но для этого придётся читать... Игорь Михайлович 10:59, 23 октября 2010 (UTC)
- Мне? Читать? Зачем мне "читать"? Вы наверное слабо понимате, Игорь Михайлович../ Читать (что-то-там где-то-там) вы (или ваш коллега, или вы оба?) предлагаете читателям статьи (вместо чтения собственно статьи, в которой только мельком брошена загадочная/многозначительная фраза о том что дескать "Теория информации определила понятие информации"). Теперь понятно? Tpyvvikky 12:45, 23 октября 2010 (UTC) а вопрос вашему коллеге 217.67.177.50 по поводу его стремления "разместить на странице обсуждения весь контекст" еще будет
Tpyvvikky 12:45, 23 октября 2010 (UTC)
- Мне? Читать? Зачем мне "читать"? Вы наверное слабо понимате, Игорь Михайлович../ Читать (что-то-там где-то-там) вы (или ваш коллега, или вы оба?) предлагаете читателям статьи (вместо чтения собственно статьи, в которой только мельком брошена загадочная/многозначительная фраза о том что дескать "Теория информации определила понятие информации"). Теперь понятно? Tpyvvikky 12:45, 23 октября 2010 (UTC) а вопрос вашему коллеге 217.67.177.50 по поводу его стремления "разместить на странице обсуждения весь контекст" еще будет
- короче — по факту сути вопроса написать что-нибудь (кроме "почитайте") можете ? Tpyvvikky 22:43, 20 октября 2010 (UTC)
- Да какая уж тут смелость - такое встречается сплошь и рядом, и не только в теории информации. А "где есть" - смотрите, например, у Шеннона. Открывайте хотя бы сборник "Работы по теории информации и кибернетике" (Изд-во иностранной литературы, Москва, 1963 год) - и вперёд. В разделе "Теория информации" найдёте практически всё, что вам нужно. Начинайте с самого начала, с "Математической теории связи". Игорь Михайлович 18:58, 20 октября 2010 (UTC)
- смело. (может даже где есть эти контексты и аксиомы?) Tpyvvikky 21:33, 19 октября 2010 (UTC)
- Знаете, до тех пор, пока вы не разберётесь с понятиями контекстуального и аксиоматического определений, и не уясните для себя, чем неявные определения отличаются от явных, дискутировать с вами бессмысленно. Разберётесь - сами поймёте, что заблуждаетесь. Что касается "слабого понимания", Tpyvvikky, то похоже, разницу между Википедией и учебником вы и в самом деле понимаете слабо. Зы: вопросы о вере, неверии и свободе совести выходит за рамки и самой статьи, и её обсуждения. Что касается существа вопроса, то почему бы вам и в самом деле не прочитать внимательно то, чему вы с таким рвением берётесь возражать? Зы:: И ещё раз насчёт понимания. Похоже, вы не поняли, что "почитать" я предложил не читателям Википедии (для которых ссылка на источник вполне привычна), а персонально вам, и указал на тот самый контекст, в существование которого вы не верите :) Игорь Михайлович 10:53, 24 октября 2010 (UTC)
- Вы плохо понимаете? (что-то не догоняете?) - разбираться должен не я (я вообще ничего не должен, мне это совершенно не интересно и не волнует /вот даж любопытно,в чем ж это я "заблуждаюсь" и чему "возражаю"/) - разбираться должны вы (в этом вопросе, поскольку вступили тут в дискуссию, и, вероятно, редактируете статью) - и отразить эти знания (в энциклопедичном, т.е. кратком, виде) в статье, а не выставлять фразы (не ваша, нет?), приведенные в самом верху (см. цитату) из разряда "догадайсямолсама". Tpyvvikky 12:04, 24 октября 2010 (UTC)
- ps: так по сути вопроса сказать (то, что можно отразить в статье) что-либо можете? кроме "идите,мол" (в смысле "почитайте"). Или эта дивная фраза (повторить?) так и останется висеть голой? Ставить запрос АИ?
- короче (чтоб не вступать в долгие дискуссии) - написать свой вариант (раз уж вы, со своими 'знаниями', не можете ничего предложить) этой фразы, раскрывающий и уточняющий её смысл ? Tpyvvikky 12:14, 24 октября 2010 (UTC) ..нет, лучше уж подожду, а вдруг
Отстойная статья
[править код]адетивности...
[править код]ссылка "Теория информации (электронный учебник)" это точно нужно? во-1х на народе, во-2х чего стоит только свойство адетивности — Эта реплика добавлена участником NickShaforostoff (о • в) 16:40, 1 мая 2006 (UTC)
- Спасибо, уберу эту ссылку как руки дойдут. Incnis Mrsi 20:32, 14 декабря 2006 (UTC)
... ну и вообще
[править код]... можно подумать, что кроме Шэннона и Колмогорова там никто не работал. Да и не является сабж отделом теорвера. Пересекаются несомненно, но есть в теории информации и всякие понятия вроде ε-энтропии, которые к теорверу мало имеют отношения. Incnis Mrsi 20:32, 14 декабря 2006 (UTC)
это Вы зря
[править код]энтропия плотно связана с теорвером, т.е. задает значение неопределенности и множества исходов, которое кстати тервером вообще не учтено насколько я знаю.Рупор Логоса 00:27, 16 июня 2012 (UTC)
Детерминированная информация, обусловленная качествами и свойствами материи.
[править код]В теории информации не хватает раздела, которые описывают ситуации связанной со свойствами и качествами элементов материи (элементов, частиц, процессов физических, химических...), то есть связанной информации по Л Брюллиэну. В момент взаимодействия элементов, частиц..., галактик материя обмениваются своими информациями. Согласно этой информации происходят физические, химические процессы, которые не записываются ни на каком языке, но сам обмен информацией совершается. По этому принципу работает генетическая информация в человеке и всех живых организмах. Идёт оплодотворение, развитие живой клетки вплоть до человека, и делается всё это по заложенной в геном информации, но без всякого перевода на какой-либо язык (социальный или чмсто математический). Но в теории информации этот раздел, кстати основной в материальном мире, вообще не учитывается и не описывается. Малинский Виталий Сергеевич.
Понятие "Пара функций" в теории информации
[править код]В теории информации есть понятие "Пара функций" [1, с . 109-110]. Согласно [1, с. 109-110] важнейший факт заключается в том, что между временем и частотой существует полная симметрия; для пар функций построены даже специальные таблицы. Важно также то обстоятельство, что понятие "Пара функций" напрямую связано с принципом неопределённости в квантовой теории. Чтобы убедиться в этой связи, нужно [2, с. 256] внимательно сравнить со статьёй в Википедии "Принцип неопределённости" (раздел "Примечания"). В настоящее время на основе допущения о том, что количество информации в ограниченном пространственно-временном объёме не может быть бесконечным, и с применением понятия "Пара функций" разработана космологическая модель без сингулярности [3, с. 1-5]. Однако в Википедии понятие "Пара функций" в статье "Теория информации" никак не определено. Поскольку понятие "Пара функций" может применяться в разных областях науки, предлагаю на основе интегралов Фурье создать статью в Википедии под названием "Пары функций".
Библиографический список 1. Андре Анго. Математика для электро- и радиоинженеров. - М.: Наука. - 1967. 2. Физический энциклопедический словарь. - М.: Советская энциклопедия. - 1983. 3. Курнышев Б.С. Разработка космологических моделей на основе кратных интегралов Фурье. - Чита: Молодой ученый. - 2012, №3. - ISSN 2072-0297.
109.60.241.66 10:36, 21 августа 2012 (UTC)
Относительно безграмотного определения "кодирование информации"
[править код]Господа, может быть, кто-нибудь возьмёт на себя труд и исправит, наконец, этот безграмотный бред? Информация не кодируется просто в силу определения понятия информации, кодируются данные, а это далеко не одно и то же! 217.67.177.50 11:22, 17 марта 2017 (UTC)