class: center, middle, inverse, title-slide .title[ # Señales y Sistemas ] .subtitle[ ## Sesión 12 ] .author[ ### Alejandro Ucan ] .date[ ### 2023-10-01 ] ---
# Objetivos: * Motivar el estudio de las series de Fourier. <br/><br/> * Describir las propiedades matemáticas de señales, y sus forma de estudiarla.<br/><br/> * Introductir los polinomios trigonométricos. --- #Motivación ## Señales > Nos motivaremos por el estudio de las _señales:_ * Intensidad de una corriente electrica. * Diferencia de potencial entre dos puntos en un circuito. * Posición de un objeto (respecto al tiempo o al espacio). * Escala de grises de una imagen. * Componentes de un campo vectorial. * Un Sonido. <br/><br/> > Definición: una señal corresponde a valores observados que dependen del tiempo o del espacio. Estas pueden ser análogas o discretas, dependiendo de la continuidad de la dependencia. --- ## Sistema de Tranmisición <img src="https://www.electronics-tutorials.ws/wp-content/uploads/2018/05/io-io1_2.gif" width="150%" /> --- # Un Sistema > Supongamos que mis señales `\(f(t)\)` son funciones cuyo codominio es un espacio vectorial `\((\mathbb{R}, \mathbb{C}),\)` esto implica que mi espacio de funciones sea un espacio vectorial. <br/><br/> > Definición: Un sistema es un operador lineal `\(S\)` que toma una señal `\(f(t)\)` y la transforma en otra señal `\(S(f(t)).\)` --- ## El principio de superposición: > Decimos que las propiedades lineales del operador systema, `$$S(x+u)=S(x)+S(u) \mbox{ y } S(\alpha x)=\alpha S(x)$$` con `\(\alpha\in \mathbb{K}\)` se conoce como el principio de Superposición. --- ## Causalidad > Decimos que un sistema `\(S\)` es causal si la salida del sistema en el tiempo `\(t\)` depende de la entrada del sistema en el tiempo `\(t\)` o en tiempos anteriores. `$$x_1(t)=x_2(t) \mbox{ para todo } t\leq t_0 \Rightarrow S(x_1)(t)=S(x_2)(t) \mbox{ para todo } t\leq t_0.$$` --- ## Invarianza en el tiempo > Decimos que un sistema `\(S\)` es invariante en el tiempo si la salida del sistema en el tiempo `\(t\)` depende de la entrada del sistema en el tiempo `\(t\)` o en tiempos anteriores. Si `\(\tau_\alpha\)` es el operador delay `\(\tau_\alpha x(t)=x(t-\alpha)\)` entonces `$$S(\tau_\alpha x)(t)=S(x)(t-\alpha).$$` --- # El espacio de funciones de cuadrado intregable. > __Definición:__ El espacio de funciones (periodicas de cuadrado integrable `\(L_p^2((0,a))\)` es el espacio de funciones `\(f:(0,a)\to \mathbb{C}\)` tales que `$$\int_0^a|f(t)|^2dt<\infty$$` y que además son de periodo `\(a.\)` -- <br/><br/> __Lema:__ El espacio `\(L_p^2(0,a)\)` es un espacio vectorial real. --- ## Producto Interno y Norma: > __Definción:__ Definamos la función `\(\langle \cdot,\cdot\rangle:L_p^2(0,a)\times L_p^2(0,a)\to \mathbb{C}\)` dada por `$$\langle f,g\rangle=\int_0^a f(t)\overline{g(t)}dt.$$` __Lema:__ La función `\(\langle \cdot,\cdot\rangle\)` es un producto interno en `\(L_p^2(0,a).\)` --- > __Definición:__ El producto anterior define una norma en el espacio `\(L_p^2(0,a)\)` de manera natural `$$\|f\|=\sqrt{\langle f,f\rangle}=\sqrt{\int_0^a|f(t)|^2dt}.$$` <br/><br/> __Lema:__ La norma anterior es una norma en `\(L_p^2(0,a).\)` --- # El espacio de Señales Trigonométricas. > Consideremos las funciones `\(\varepsilon:\mathbb{R}\to \mathbb{C}\)` dadas por `$$\varepsilon_n(t)=\exp\left(2i\pi n\frac{t}{a}\right).$$` x --- <br/><br/> Estas funciones son periódicas `$$\varepsilon(t+a)=\exp\left(\frac{2i\pi n (t+a)}{a}\right)=\exp\left(\frac{2i\pi n t}{a}+2i\pi n\right)=\exp\left(\frac{2i\pi n t}{a}\right)\exp\left(2i\pi n\right)=\exp\left(\frac{2i\pi n t}{a}\right)$$` --- ## Polynomios Trigonométricos > Entonces cualquier combinación lineal (con coeficientes complejos) de las funciones anteriores me va a dar una función periódica de periodo `\(a.\)` `$$p(t)=\sum_{j=1}^n c_j \varepsilon_j(t).$$` > __Definición:__ Un polinomio trigonométrico es una función `\(p(t):\mathbb{R}\to \mathbb{C}\)` definida por la suma: `$$p(t)=\sum_{j=-n}^n c_j \varepsilon_j(t).$$` --- ## Representación visual de los polinomios trigonométricos <iframe src="https://www.desmos.com/calculator/wbgk95zmoq?embed" width="1200" height="450" style="border: 1px solid #ccc" frameborder=0></iframe> --- ## Representación Real > Notemos que `\(\overline{\varepsilon_n(t)}=\varepsilon_{-n}(t),\)` por lo que el polinomio trigonométrico es simplemente: `$$p(t)=a_0+\sum_{j=1}^n\left(a_n cos\left(\frac{2\pi nt}{a}\right)+b_ni\sin\left(\frac{2\pi n t}{a}\right)\right)$$` con `\(n\leq 0\)` y `$$a_n=c_n+c_{-n}\mbox{ y } b_n=i(c_n-c_{-n})$$` --- ## Ortogonalidad > __Lema:__ Para las funciones `\(\varepsilon_n(t)\)` se cumple que `$$\int_0^a \varepsilon_n(t)\overline{\varepsilon_n(t)}dt=a\delta_{nm}.$$` Si consideramos el conjunto de polinomios trigonométricos de grado menor o igual a `\(N\)` y lo denotamos por `\(T_N,\)` y este es un subespacio vectorial (complejo) de `\(L_p^2(0,a)\)` y dado que el producto interno se hereda. Lo anterior implica que `\(\{\varepsilon_n(t)\}_{j=-N}^N\)` es una base ortogonal del espacio vectorial `\(T_N.\)`