കമ്പ്യൂട്ടർ സയൻസ്, ഇലക്ട്രിക്കൽ എഞ്ചിനീയറിങ്ങ്, ബയോ ഇൻഫർമാറ്റിക്സ് തുടങ്ങിയ ശാസ്ത്ര-സാങ്കേതിക മേഖലകളിൽ പ്രയോഗസാദ്ധ്യതകളുള്ള ഒരു ആധുനിക ഗണിതശാസ്ത്രശാഖയാണ് വിവര സിദ്ധാന്തം (ഇൻഫോമേഷൻ തിയറി). 1948-ൽ ക്ലോഡ് ഷാനൺ പ്രസിദ്ധീകരിച്ച മാത്തമാറ്റിക്കൽ തീയറി ഓഫ് കമ്മ്യൂണിക്കേഷൻ എന്ന പ്രബന്ധമാണ് ഈ ഗണിതശാസ്ത്രശാഖയുടെ ആധാരം. ക്ലോഡ് ഷാനൺ തന്നെയാണ് ഈ ശാസ്ത്രശാഖയുടെ പിതാവായി അറിയപ്പെടുന്നതും.

ഇൻഫർമേഷൻ അഥവാ വിവരം എൻട്രോപ്പി എന്ന മാനകം ഉപയോഗിച്ച് അളന്ന് നിജപ്പെടുത്താമെന്ന് പ്രസ്തുത പ്രബന്ധം പറയുന്നു. ഏതെങ്കിലും സ്രോതസ്സിൽ നിന്നും ലഭ്യമാകുന്ന ഡാറ്റയിൽ അടങ്ങിയിരിക്കുന്ന വിവരം അളക്കാൻ കഴിഞ്ഞാൽ ആ ഡാറ്റയെ എത്രമാത്രം കംപ്രസ്സ് ചെയ്യാൻ സാധിക്കുമെന്ന് അല്ലെങ്കിൽ വിശ്വസനീയമായ വിവരവിനിമയത്തിന് ശരാശരി എത്ര ബിറ്റുകൾ (ബൈനറി വിവരവിനിമയമണെങ്കിൽ) വേണമെന്ന് ഒക്കെ കണക്കാക്കാൻ ഈ സിദ്ധാന്തം സഹായിക്കുന്നു.

ചരിത്രം തിരുത്തുക

ഷാനൻ ബെൽ ലാബട്ടറീസിന്റെ ജേണലിൽ 'എ മാത്തമാറ്റിക്കൽ തിയറി ഓഫ് കമ്യൂണിക്കേഷൻ' (A Mathematical Theory of Communication) എന്ന ലേഖനം പ്രസിദ്ധീകരിച്ചതോടെയാണു് ഈ ശാഖ ഉണ്ടായതു്. ഇതിലൂടെ ഇദ്ദേഹമാണു്വിവരസിദ്ധാന്തത്തിന്റെ ഗുണപ്രകാരവും പരിമാണപ്രകാരവുമായ അടിസ്ഥാന തത്ത്വങ്ങൾ മുൻപോട്ടു വച്ചതു്. ഷാനനിന്റെ അഭിപ്രായപ്രകാരം വിവരസിദ്ധാന്തത്തിന്റെ അടിസ്ഥാന തത്ത്വം "ഒരു ബിന്ദുവിൽ നിർമ്മിക്കപ്പെടുന്ന വിവരം അതേ പോലെയോ ഭാഗികമായ മാറ്റങ്ങളോടെയോ മറ്റൊരു ബിന്ദുവിൽ പുനർജനിപ്പിക്കുക എന്നതാണു്".

ഇതിൽ നിന്നും

  • വിവര എൻട്രോപി, റിഡന്റൻസി എന്നിവയും അവയ്ക്ക് സോഴ്സ് കോഡിങ്ങ് സിദ്ധാന്തവുമായുള്ള ബന്ധം
  • ഒരു നോയിസി (കോലാഹലം നിറഞ്ഞ) ആയ വിനിമയപാതയുടെ മ്യൂച്ചൽ ഇൻഫൊർമേഷൻ, ചാനൽ കപാസിറ്റി, ഡാറ്റാനഷ്ടങ്ങളില്ലാതെയുള്ള വിനിമയപാതയുടെ സാദ്ധ്യതയെക്കുറിച്ചുള്ള നോയിസി-ചാനൽ കോഡിങ് സിദ്ധാന്തം
  • ഒരു ഗോസിയൻ പാതയുടെ ചാനൽ ശേഷി കണ്ടെത്താനുള്ള ഷാനൻ-ഹാർട്‌ലി സിദ്ധാന്തം
  • വിവരത്തിന്റെ അടിസ്ഥാന ഏകകമായ ബിറ്റ്

എന്നീ ആശയങ്ങൾ രൂപപ്പെട്ടു.

വിവരം - അളവുകൾ തിരുത്തുക

വിവരസിദ്ധാന്തം അനുസരിച്ച് വിവരം അളക്കുവാൻ സാധിക്കും. വിവരം എന്നാൽ അത് ടെക്‌സ്റ്റ്, ഓഡിയോ, വീഡിയോ, ചിത്രം അങ്ങനെ എന്തു രൂപത്തിലുമാകാം. ഒരു വിവരസ്രോതസ്സിൽ നിന്നും കിട്ടുന്ന ഡാറ്റയിൽ മിക്കപ്പോഴും അനാവശ്യമായ ആവർത്തനങ്ങൾ ഉണ്ടാകാം. അതായത് ആ ആവർത്തനങ്ങളെ ഒഴിവാക്കിയാലും ആ സ്രോതസ്സിൽ നിന്നും ലഭിക്കുന്ന വിവരം സംവേദനക്ഷമമായിരിക്കുമെന്ന് ലളിതമായി പറയാം. ഒഴിവാക്കാൻ ഇനി ആവർത്തനങ്ങൾ ഇല്ല എന്ന നിലയിൽ സ്രോതസ്സിൽ നിന്നുള്ള ഡാറ്റയെ ചുരുക്കുമ്പോൾ ലഭിക്കുന്നതെന്തോ അതാണ് ആ സ്രോതസ്സിൽ നിന്നും ഉള്ള വിവരത്തിന്റെ യഥാർത്ഥ അളവ് അഥവാ എൻട്രോപ്പി. ഇങ്ങനെ ചുരുക്കിയ ഡാറ്റയെ ബൈനറിയായി സൂക്ഷിക്കാൻ എത്ര ബിറ്റുകൾ വേണ്ടിവരുമെന്നുള്ളത് എൻട്രോപ്പിയുടെ ബിറ്റിലുള്ള അളവാണ്.

എൻട്രോപ്പി ഗണിതപരമായി അളക്കുന്നത് സംഭാവ്യതാശാസ്ത്രത്തിന്റേയും സാഖ്യികത്തിന്റേയും സഹായത്തോടെയാണ്. ഒരു വിവരസ്രോതസ്സിൽ നിന്നും ലഭിക്കുന്ന ഡാറ്റ പ്രവചനാതീതം(uncertain) ആണെങ്കിൽ അതിൽ നിന്നും ലഭിക്കുന്ന 'വിവരത്തിന്റെ അളവ്' അഥവാ എൻട്രോപ്പി കൂടുതലായിരിക്കുമെന്ന് പറയാം. മുൻകൂട്ടി കൃത്യമായി പ്രവചിക്കാവുന്ന ഡാറ്റയിൽ 'പുതിയ വിവരം' ഒന്നും അടങ്ങിയിട്ടില്ലല്ലോ. അതായത് ഒരു വിവരസ്രോതസ്സിന്റെ എൻട്രോപ്പി, അതിൽ നിന്നും ലഭിക്കുന്ന/ലഭിക്കാനിടയുള്ള ഡാറ്റയുടെ സംഭാവ്യതയുമായി ബന്ധപ്പെട്ടിരിക്കുന്നു.

അടിസ്ഥാനസിദ്ധാന്തങ്ങൾ തിരുത്തുക

മൂന്ന് അടിസ്ഥാന സിദ്ധാന്തങ്ങളാണ് ഈ ഗണിതശാസ്ത്രശാഖയ്ക്കുള്ളത്. സോഴ്സ്കോഡിങ്ങ് സിദ്ധാന്തം, ചാനൽ കോഡിങ്ങ് സിദ്ധാന്തം, ഇൻഫർമേഷൻ കപ്പാസിറ്റി സിദ്ധാന്തം എന്നിവയാണവ.

സോഴ്സ് കോഡിങ്ങ് സിദ്ധാന്തം തിരുത്തുക

ചാനൽ കോഡിങ്ങ് സിദ്ധാന്തം തിരുത്തുക

ഇൻഫർമേഷൻ കപ്പാസിറ്റി സിദ്ധാന്തം തിരുത്തുക

വിവരസിദ്ധാന്തത്തിന്റെ പ്രയോഗം ഇതര ശാസ്ത്ര ശാഖകളിൽ തിരുത്തുക

അവലംബം തിരുത്തുക

"https://ml.wikipedia.org/w/index.php?title=വിവര_സിദ്ധാന്തം&oldid=3791733" എന്ന താളിൽനിന്ന് ശേഖരിച്ചത്