پاسخ : مباحثی در: مدولاسیون آنالوگ و دیجیتال و طراحی آنتن
سوالات از پست 53:
قسمت 1:
قبل از این بگم که من این نوشته ها را بعد از خواندن پست های بعدیتون نوشتم ، و خدا رو شکر به لطف شما الان یک دید خوبی پیدا کردم
اول از همه یک تعریف برای برهه ی زمانی میگم که فکرمون یکی شه: برهه زمانی ، بازه ی زمانی است که یک بیت به خود اختصاص میدهد ، که برای مثالی که فرمودید : برهه زمانی= 100 میکرو ثانیه است.( باتوجه به 10000bps )
پس میشه نظریه محو شدگی(ارتباط سرعت و برد) ، که قبلا مطرح شد و مورد تایید شما قرار گرفت، را باتوجه به این پستتون به صورت زیر نوشت:
با توجه به فرستادن بیت ها به صورت یکی در میان یک و صفر ، پس فرکانس روی آنتن هر 1 برهه ی زمانی یک بار عوض میشود( هر 100 میکرو ثانیه یکبار) (البته با فرض استفاده نکردن از فیلتر گاوسی)
پس در این صورت اگر یک نویز با طول زمانیه بیش از 100 میکروثانیه به طوری که قدرتش از موج ما زیاد تر باشه ، در محیط بوجود بیاد، حداقل یک بیت را خراب میکنه و در نتیجه پکت را خراب میکنه .
( پس باید گیرنده طوری طراحی بشه که با خراب شدن یک بیت کل پکت را بریزه دور ( چون بیتی در این زمان برای گیرنده آشکار نمیشه) ( نمیتونه که خودش بیت رو حدس بزنه چی بوده :دی)
تو حالت بالا زیاد تاثیر نویز حاد نیست (چون گیرنده پکت را میریزه دور(انگار نه انگار چیزی دریافت کرده))ولی اگر نویز طوری باشه که یک لحظه بیاد و فرکانس بیت کنونی را طوری تغییر بده که بره تو حوضه ی فرکانس مخالفش (اگه بیت 0 باشه بره تو حوزه 1 و اگه یک باشه بره تو حوزه 0 ) بدون اینکه گیرنده بفهمه ، پکت اشتباه دریافت میکنه که این خیلی بده .( البته خوشبختانه تو nrf با روش tcp و acknowledgement این مشکل حل میشه)
پس اینجوریه که گیرنده همیشه به اندازه ی یک برهه ی زمانی منتظر رسیدن بیت میشه و در صورتی که تو این زمان بیت نرسه ، هرچی دریافت کرده رو بیخیال میشه. پس در صورتی که سرعت را در فرستادن کم کنیم درنتیجه برهه زمانی افزایش پیدا میکنه ، در نتیجه گیرنده بیشتر منتظر رسیدن بیت میمونه ، درنتیجه محوشدگی کم میشه. :دی
حالا اگه بیت هامون هرچی دیگه هم باشه(و مرتب نباشه) بازهم این قضیه استوار است.
--------------------------------------------
قسمت 2:
در رابطه با این قسمت : سوالات را با "سوالات از پست 55 " باهم ترکیب و مرج میکنم
سوالات از پست 53:
قسمت 1:
خب! رسیدیم به یک بحثی که به کمی توضیحات نیاز داره. ابتدا باید یه سری نکات رو بگم
و در نهایت جمع بندی بکنم. در ضمن فیلتر گاوسی هم در اینجا سر و کله ش پیدا میشه!
قبل از اینکه بخوام بر روی سوالات شما مانور بدم، باید ابتدا یک بحثی رو باز کنم:
(البته سوال اساسی شما همینه دقیقا)
چه ربطی بین پهنای باند و سرعت انتقال داره؟ اولی واحدش هرتزه و دومی بیت بر ثانیه
خب پس خوب دقت کن:
باید یک مثال هم بزنم تا بتونم درست پیش برم.
فرض کن یک مداری داریم که پهنای باندش 1 مگاهرتزه. فرکانس قطع پایینش 1 کیلوهرتز
و فرکانس قطع بالاش 1.001 مگاهرتز باشه. 1.001 مگ منهای 0.001 مگ، میشه 1 مگاهرتز (پهنای باند)
(کار ندارم که این مدار چیه. فقط فرض میکنیم چنین چیزی داریم)
حالا فرض کن میخوایم یک فرکانسی رو واردش کنیم و خروجیش رو بررسی کنیم.
این مدار تمام سیگنالهایی که فرکانسشون در محدوده ی 1 ک هرتز تا 1.001 مگ هرتز باشه
به خوبی عبور میده. حالا اگه سیگنالی فرکانسی غیر از این محدوده داشته باشه
فرکانس هایی غیر از بازه ی مذکور، حذف میشن و تغییر در سیگنال خروجی نسبت به ورودی داریم.
این از بحث هرتز! و پهنای باند بر حسب هرتز!
حالا بریم سروقت یک سیگنال دیجیتال!
فرض میکنیم یک رشته 0 و 1 داریم. صفر رو با 0 ولت و 1 رو با 3.3 ولت متناظر میکنیم.
سوال: بیشترین فرکانسی که به کمک این 0 و 1 ها میشه ایجاد کرد چقدره؟
فرض کن سرعت داده ها 10000 بیت بر ثانیه باشه. یعنی هر ثانیه 10000 بیت تولید میشه!
حالا اگه از 0 و 3.3 ولت برای 0 و 1 استفاده کنیم
بیشترین فرکانس زمانی تولید میشه که: 0 و 1 پشت سر هم داشته باشیم!!!
یعنی 010101010101010101010101010101010 ...
در این حالت سریعترین تغییرات رو داریم. یعنی سیگنال به سرعت بین 0 ولت و 3.3 ولت تغییر میکنه.
حالا اگه اینطوری نبود مثلا اگه داشتیم 0011001100110011... سرعت تغییرات کمتر میشه دیگه!
ولی خب ما میخوایم بیشترین تغییرات رو بررسی کنیم. یعنی همون 010101...
توجه داریم که در زمان ارسال اطلاعا ترکیبهای مختلفی از 0 و1 ساخته میشه مثلا:
011101010001010011101... که بیشترین تغییرات همون حالت 010101... میشه.
تا اینجا رو فهمیدیم. خب حالا ایینجا رو با دقت گوش کن:
اون رشته ای که نوشتم: 0101010101010101... فرکانسش چقدره؟
چون داره در هر ثانیه 10000 بیت تولید میشه، فرکانس این سیگنال میشه 5000 هرتز!
یعنی یک سیگنال متناوب داریم با فرکانس 5 مگاهرتز!
چی شد؟ جان؟ بله درسته! در این سیگنالینگ خاص
بیت ریت 10000 بیت بر ثانیه شد 5000 هرتز!!! (یک سیگنال مربعی متناوب)
توجه توجه توجه: مثال فوق فقط یک حالت خاص برای بررسی رابطه ی بین بیت بر ثانیه و هرتز بود!
برای هر بیت ریت خاص، با پروتکل ارسالی خاص، قضیه فرق داره ها!
بحث تولید کدهای سیگنالینگ در باند پایه، خیلی متنوعه.
که به بحث مدولاسیون باند پایه مربوط میشه و فعلا جاش اینجا نیست! خیلی مفصله.
و در نهایت جمع بندی بکنم. در ضمن فیلتر گاوسی هم در اینجا سر و کله ش پیدا میشه!
قبل از اینکه بخوام بر روی سوالات شما مانور بدم، باید ابتدا یک بحثی رو باز کنم:
(البته سوال اساسی شما همینه دقیقا)
چه ربطی بین پهنای باند و سرعت انتقال داره؟ اولی واحدش هرتزه و دومی بیت بر ثانیه
خب پس خوب دقت کن:
باید یک مثال هم بزنم تا بتونم درست پیش برم.
فرض کن یک مداری داریم که پهنای باندش 1 مگاهرتزه. فرکانس قطع پایینش 1 کیلوهرتز
و فرکانس قطع بالاش 1.001 مگاهرتز باشه. 1.001 مگ منهای 0.001 مگ، میشه 1 مگاهرتز (پهنای باند)
(کار ندارم که این مدار چیه. فقط فرض میکنیم چنین چیزی داریم)
حالا فرض کن میخوایم یک فرکانسی رو واردش کنیم و خروجیش رو بررسی کنیم.
این مدار تمام سیگنالهایی که فرکانسشون در محدوده ی 1 ک هرتز تا 1.001 مگ هرتز باشه
به خوبی عبور میده. حالا اگه سیگنالی فرکانسی غیر از این محدوده داشته باشه
فرکانس هایی غیر از بازه ی مذکور، حذف میشن و تغییر در سیگنال خروجی نسبت به ورودی داریم.
این از بحث هرتز! و پهنای باند بر حسب هرتز!
حالا بریم سروقت یک سیگنال دیجیتال!
فرض میکنیم یک رشته 0 و 1 داریم. صفر رو با 0 ولت و 1 رو با 3.3 ولت متناظر میکنیم.
سوال: بیشترین فرکانسی که به کمک این 0 و 1 ها میشه ایجاد کرد چقدره؟
فرض کن سرعت داده ها 10000 بیت بر ثانیه باشه. یعنی هر ثانیه 10000 بیت تولید میشه!
حالا اگه از 0 و 3.3 ولت برای 0 و 1 استفاده کنیم
بیشترین فرکانس زمانی تولید میشه که: 0 و 1 پشت سر هم داشته باشیم!!!
یعنی 010101010101010101010101010101010 ...
در این حالت سریعترین تغییرات رو داریم. یعنی سیگنال به سرعت بین 0 ولت و 3.3 ولت تغییر میکنه.
حالا اگه اینطوری نبود مثلا اگه داشتیم 0011001100110011... سرعت تغییرات کمتر میشه دیگه!
ولی خب ما میخوایم بیشترین تغییرات رو بررسی کنیم. یعنی همون 010101...
توجه داریم که در زمان ارسال اطلاعا ترکیبهای مختلفی از 0 و1 ساخته میشه مثلا:
011101010001010011101... که بیشترین تغییرات همون حالت 010101... میشه.
تا اینجا رو فهمیدیم. خب حالا ایینجا رو با دقت گوش کن:
اون رشته ای که نوشتم: 0101010101010101... فرکانسش چقدره؟
چون داره در هر ثانیه 10000 بیت تولید میشه، فرکانس این سیگنال میشه 5000 هرتز!
یعنی یک سیگنال متناوب داریم با فرکانس 5 مگاهرتز!
چی شد؟ جان؟ بله درسته! در این سیگنالینگ خاص
بیت ریت 10000 بیت بر ثانیه شد 5000 هرتز!!! (یک سیگنال مربعی متناوب)
توجه توجه توجه: مثال فوق فقط یک حالت خاص برای بررسی رابطه ی بین بیت بر ثانیه و هرتز بود!
برای هر بیت ریت خاص، با پروتکل ارسالی خاص، قضیه فرق داره ها!
بحث تولید کدهای سیگنالینگ در باند پایه، خیلی متنوعه.
که به بحث مدولاسیون باند پایه مربوط میشه و فعلا جاش اینجا نیست! خیلی مفصله.
اول از همه یک تعریف برای برهه ی زمانی میگم که فکرمون یکی شه: برهه زمانی ، بازه ی زمانی است که یک بیت به خود اختصاص میدهد ، که برای مثالی که فرمودید : برهه زمانی= 100 میکرو ثانیه است.( باتوجه به 10000bps )
پس میشه نظریه محو شدگی(ارتباط سرعت و برد) ، که قبلا مطرح شد و مورد تایید شما قرار گرفت، را باتوجه به این پستتون به صورت زیر نوشت:
با توجه به فرستادن بیت ها به صورت یکی در میان یک و صفر ، پس فرکانس روی آنتن هر 1 برهه ی زمانی یک بار عوض میشود( هر 100 میکرو ثانیه یکبار) (البته با فرض استفاده نکردن از فیلتر گاوسی)
پس در این صورت اگر یک نویز با طول زمانیه بیش از 100 میکروثانیه به طوری که قدرتش از موج ما زیاد تر باشه ، در محیط بوجود بیاد، حداقل یک بیت را خراب میکنه و در نتیجه پکت را خراب میکنه .
( پس باید گیرنده طوری طراحی بشه که با خراب شدن یک بیت کل پکت را بریزه دور ( چون بیتی در این زمان برای گیرنده آشکار نمیشه) ( نمیتونه که خودش بیت رو حدس بزنه چی بوده :دی)
تو حالت بالا زیاد تاثیر نویز حاد نیست (چون گیرنده پکت را میریزه دور(انگار نه انگار چیزی دریافت کرده))ولی اگر نویز طوری باشه که یک لحظه بیاد و فرکانس بیت کنونی را طوری تغییر بده که بره تو حوضه ی فرکانس مخالفش (اگه بیت 0 باشه بره تو حوزه 1 و اگه یک باشه بره تو حوزه 0 ) بدون اینکه گیرنده بفهمه ، پکت اشتباه دریافت میکنه که این خیلی بده .( البته خوشبختانه تو nrf با روش tcp و acknowledgement این مشکل حل میشه)
پس اینجوریه که گیرنده همیشه به اندازه ی یک برهه ی زمانی منتظر رسیدن بیت میشه و در صورتی که تو این زمان بیت نرسه ، هرچی دریافت کرده رو بیخیال میشه. پس در صورتی که سرعت را در فرستادن کم کنیم درنتیجه برهه زمانی افزایش پیدا میکنه ، در نتیجه گیرنده بیشتر منتظر رسیدن بیت میمونه ، درنتیجه محوشدگی کم میشه. :دی
حالا اگه بیت هامون هرچی دیگه هم باشه(و مرتب نباشه) بازهم این قضیه استوار است.
--------------------------------------------
قسمت 2:
خب حالا بریم سروقت اون ترکیب بیت بر ثانیه و هرتز!
یک ارتباطشو در بالا گفتم. (که بیشتر کامپیوتریه)
حالا میخوام از طرف دیگه نگاه کنیم به قضیه:
سیگنال 010101... که ساختیم، فرکانسش بود 5ک هرتز.
اگر یادت باشه قبلا گفته بودیم که یک سیگنال مربعی با فرکانس n هرتز
تشکیل شده از بینهایت سینوسی با فرکانس های n 2n 3n 4n 5n 6n 7n ... تا بینهایت...
که دامنه ی این سینوس ها با افزایش فرکانس به شدت کاهش پیدا میکنه.
یعنی همون بحث سری فوریه!
سیگنال های مختلف هم یک باند فرکانسی دارن.
مثلا پهنای باند سیستم صوتی انسان بین 20 هرتز تا 20 کیلوهرتزه. یعنی حدود 20 ک هرتز.
اما در مثال فوق پهنای باند در حالت ایده آل برابره با بینهایت!!!
اما با تقریب حدود 95 درصدی، اگه فقط 4 تا سینوس داشته باشیم سیگنال تولیدی به سیگنال اصلی نزدیک میشه.
یعنی به جای اینکه پهنای باند رو بینهایت بگیریم، 4 تا 5ک هرتز یعنی 20 کیلوهرتز میشه
حالا اگه این سیگنال رو از مدار فوق بگذرونیم به خوبی از سیستم عبور میکنه
چون سیستمی که در بالا مثال زدیم بین 1ک هرتز تا 1.001 مگاهرتز بود
و سیگنالی که داریم با بیت ریت 10000 بیت بر ثانیه یا همون 5ک هرتز (البته در اینجا!)
به راحتی از این سیستم عبور میکنه.
حالا فرض کن به جای اینکه سرعت ارسال اطلاعات در مثال فوق به جای 10000 بیت
1مگابیت بر ثانیه باشه. طبق فرضیات فوق فرکانسش میشه 500 ک هرتز.
و اگه بخوایم از 4 تا مولفه ی فرکانسی اولش
برای رسیدن به تقریب 95 درصدی استفاده کنیم
پهنای باند سیگنال میشه: 2 مگاهرتز!
حالا دیگه این سیگنال به درستی از این سیستم عبور نمیکنه!
*نکته: دیدیم که برای هر سیگنال دیجیتال دو تا عدد اعلام میکنیم:
بیت بر ثانیه، هرتز
اولیش سرعت انتقال اطلاعاته
دومیش پهنای باند سیگناله
ارتباط بینشون هم در یک مثال خاص دیدیم
برای یک سیستم مداری هم ما یک چیزی تعریف میکنیم به نام "پهنای باند"
یک سیگنال اگه بخواد از یک سیستم به خوبی عبور کنه
حداکثر پهنای باند سیگنال باید برابر با پهنای باند سیستم باشه تا تداخلی رخ نده.
اما این فیلتر گاوسی خودشو کجا نشون میده؟
انشالله در پست بعد... همراه با مطالب دیگه...
یک ارتباطشو در بالا گفتم. (که بیشتر کامپیوتریه)
حالا میخوام از طرف دیگه نگاه کنیم به قضیه:
سیگنال 010101... که ساختیم، فرکانسش بود 5ک هرتز.
اگر یادت باشه قبلا گفته بودیم که یک سیگنال مربعی با فرکانس n هرتز
تشکیل شده از بینهایت سینوسی با فرکانس های n 2n 3n 4n 5n 6n 7n ... تا بینهایت...
که دامنه ی این سینوس ها با افزایش فرکانس به شدت کاهش پیدا میکنه.
یعنی همون بحث سری فوریه!
سیگنال های مختلف هم یک باند فرکانسی دارن.
مثلا پهنای باند سیستم صوتی انسان بین 20 هرتز تا 20 کیلوهرتزه. یعنی حدود 20 ک هرتز.
اما در مثال فوق پهنای باند در حالت ایده آل برابره با بینهایت!!!
اما با تقریب حدود 95 درصدی، اگه فقط 4 تا سینوس داشته باشیم سیگنال تولیدی به سیگنال اصلی نزدیک میشه.
یعنی به جای اینکه پهنای باند رو بینهایت بگیریم، 4 تا 5ک هرتز یعنی 20 کیلوهرتز میشه
حالا اگه این سیگنال رو از مدار فوق بگذرونیم به خوبی از سیستم عبور میکنه
چون سیستمی که در بالا مثال زدیم بین 1ک هرتز تا 1.001 مگاهرتز بود
و سیگنالی که داریم با بیت ریت 10000 بیت بر ثانیه یا همون 5ک هرتز (البته در اینجا!)
به راحتی از این سیستم عبور میکنه.
حالا فرض کن به جای اینکه سرعت ارسال اطلاعات در مثال فوق به جای 10000 بیت
1مگابیت بر ثانیه باشه. طبق فرضیات فوق فرکانسش میشه 500 ک هرتز.
و اگه بخوایم از 4 تا مولفه ی فرکانسی اولش
برای رسیدن به تقریب 95 درصدی استفاده کنیم
پهنای باند سیگنال میشه: 2 مگاهرتز!
حالا دیگه این سیگنال به درستی از این سیستم عبور نمیکنه!
*نکته: دیدیم که برای هر سیگنال دیجیتال دو تا عدد اعلام میکنیم:
بیت بر ثانیه، هرتز
اولیش سرعت انتقال اطلاعاته
دومیش پهنای باند سیگناله
ارتباط بینشون هم در یک مثال خاص دیدیم
برای یک سیستم مداری هم ما یک چیزی تعریف میکنیم به نام "پهنای باند"
یک سیگنال اگه بخواد از یک سیستم به خوبی عبور کنه
حداکثر پهنای باند سیگنال باید برابر با پهنای باند سیستم باشه تا تداخلی رخ نده.
اما این فیلتر گاوسی خودشو کجا نشون میده؟
انشالله در پست بعد... همراه با مطالب دیگه...
دیدگاه