DÚVIDA
Prove que se a equação x² + (a+bi) x + (c+di) = 0 em que a, b, c, d pertencem aos Reais, admite uma raiz real, então a*b*d = d² + b²c
Acho q nao entendi o enunciado mesmo...
SOLUÇÃO
O enunciado quer dizer que:
x^2 + (a+bi)x + (c+di) = 0 para algum x real ==>
Separando as partes real e imaginaria, teremos:
x^2 + ax + c = 0 e bx + d = 0
CASO 1: b = 0
Nesse caso, d = 0 e teremos, trivialmente, que abd = d^2 + b^2c = 0.
CASO 2: b <> 0
x = -d/b ==>
x^2 + ax + c = d^2/b^2 - ad/b + c = (d^2 - abd + b^2c)/b^2 = 0 ==>
d^2 - abd + b^2c = 0 ==>
abd = d^2 + b^2c
Logo, em qualquer caso, vale abd = d^2 + b^2c.
Assim, resolvemos mais um problema da lista de matemática da PUC-Rio, desta vez sobre números complexos. Para ver a discussão completa sobre esta questão, clique aqui.