LEMNISCATA
Matemàtiques, física, química…
Per demostrar que tres vectors (\vec{u}), (\vec{v}) i (\vec{w}) són linealment independents hi ha dos mètodes. Aplicar la definició de vectors linealment independents, és a dir, que si plantegem una combinació lineal nul·la dels vectors (\vec{u}), (\vec{v}) i (\vec{w}), l’única solució és la trivial. És a dir, (\alpha \vec{u} + \beta \vec{v} + \gamma \vec{w} = \vec{0} \rightarrow \alpha = \beta = \gamma = 0). També podem calcular el rang de la matriu formada pels tres vectors. Si aquest rang és 3, aleshores els vectors són linealment independents; si el rang és menor que 3, aleshores són dependents. Evidentment, aquest últim procediment és més ràpid.
Així: $$|A| = \begin{vmatrix}
1 & 2 & 1 \\
-1 & 1 & 0 \\
4 & 3 & 0
\end{vmatrix} = \begin{vmatrix}
-1 & 1 \\
4 & 3
\end{vmatrix} = -3 – 4 = -7 \neq 0 \rightarrow \text{Rang}(A) = 3 \rightarrow \vec{u}, \vec{v} \text{ i } \vec{w} \text{ L.I.}$$
NOTA: Si ho haguéssim fet plantejant una combinació lineal nul·la el procediment hagués estat el següent:
$\alpha \vec{u} + \beta \vec{v} + \gamma \vec{w} = \vec{0} \rightarrow \alpha (-1, -1, 4) + \beta (2, 1, 3) + \gamma (1, 0, 0) = (0, 0, 0) \rightarrow \begin{cases} \alpha + 2\beta + \gamma = 0 \\ -\alpha + \beta = 0 \\ 4\alpha + 3\beta = 0 \end{cases}$
$$\rightarrow A’ = \begin{pmatrix}
1 & 2 & 1 & 0 \\
-1 & 1 & 0 & 0 \\
4 & 3 & 0 & 0
\end{pmatrix}$$
$$F_2 \rightarrow F_2 + F_1, \quad F_3 \rightarrow 4F_1 – F_3$$
$$= \begin{pmatrix}
1 & 2 & 1 & 0 \\
0 & 3 & 1 & 0 \\
0 & -5 & -4 & 0
\end{pmatrix}$$
$$F_3 \rightarrow F_3 + \frac{4}{5}F_2$$
$$= \begin{pmatrix}
1 & 2 & 1 & 0 \\
0 & 3 & 1 & 0 \\
0 & 0 & 0 & 0
\end{pmatrix}$$
D’on es dedueix que $\alpha = \beta = \gamma = 0 \rightarrow {\vec{u}, \vec{v}, \vec{w}} \text{ L.I.}$
b) Calculeu la relació que hi ha d’haver entre els valors de $a$ i $b$ per tal que el vector $(a, b, 1)$ sigui combinació lineal de $\vec{u}$ i $\vec{v}$.
$(a, 1, b) = \alpha \cdot (1, -1, 4) + \beta \cdot (2, 1, 3) \rightarrow \begin{cases} \alpha + 2\beta = a \ -\alpha + \beta = 1 \ 4\alpha + 3\beta = b \end{cases} \rightarrow A’ = \begin{pmatrix} 1 & 2 & a \ -1 & 1 & 1 \ 4 & 3 & b \end{pmatrix}$
Per a que el vector $(a, 1, b)$ es pugui expressar com a combinació lineal dels altres dos s’ha de complir que el sistema d’equacions anterior sigui compatible determinat, per tant, s’ha de complir que $\text{Rang}(A) = \text{Rang}(A’) = n^\circ$ incògnites = 2, per tant, el Rang de la matriu $A$ no pot ser 3 i per tant, $|A’| = 0$. Així:
$|A’| = 0 \rightarrow \begin{vmatrix} 1 & 2 & a \\ -1 & 1 & 1 \\ 4 & 3 & b \end{vmatrix} = 0 \rightarrow -b \cdot 3\alpha + 8 \cdot 4\alpha – 3 + 2b = 0 \rightarrow -7\alpha + 3b + 5 = 0$
NOTA: També es pot raonar de la manera següent. Si el vector $\vec{w} = (a, 1, b)$ ha de ser combinació lineal dels vectors $\vec{u} = (1, -1, 4)$ i $\vec{v} = (2, 1, 3)$, aleshores, aquests 3 vectors han de ser linealment dependents i per tant el determinant de la matriu formada per tots 3 ha de ser zero.