Ćwiczenie wyglądało tak:
generujemy sygnał sinusoidalny f=200Hz i A=1V. Dokonujemy pomiaru RMS za pomocą miernika uniwersalnego. Wynik porównujemy z RMS oscyloskopu.
Schemat...
~230V---Zasilacz---Generator SVAN 401---Woltomierz AC, V
Chyba każdy wie o co chodzi. Wskazania z oscyloskopu, który jest poza schematem ćwiczenia mieszczą się w przedziale 702mV - 708mV. RMS z miernika uniwersalnego dla:
200Hz - 0,708V
1000Hz - 0,697V
5000Hz - 0,563V
10000Hz - 0,424V
20000Hz - 0,306V
Fakty: Oba urządzenia sa cyfrowe, sygnał analogowy został zastąpiony sygnałem cyfrowym - próbkowanie. Zamieniamy na sygnał dyskretny.
Częstotliwość próbkowania jest różna.
Miernik - mierzymy do 400Hz > częstotliwość próbkowania to najprawdopodobniej 1000Hz [1000 próbek na sekundę].
Oscyloskop - 200MHz, a więc 200 000 000 Hz, podzielone przez 20 000Hz, co daje nam ok 10 000 próbek.
Z tego wszystkiego wynika, że częstotliwość próbkowania nie została dostosowana do częstotliwości urządzenia.
Czy to myślenie jest poprawne?
Jak mam wyjaśnić to, że wraz ze zwiększaniem f, RMS na mierniku uni jest coraz mniejsza? Wiem, że mam potrzebne fakty, ale chciałabym, żeby ktoś dokładniej mi to opisał, zobrazował. Nie wiem jak sformułować wniosek na tej podstawie. Z jakiego twierdzenia skorzystać? Jak go użyć?
Liczę na wyrozumiałość, pozdrawiam
