entropia
Significado de entropia
Medida da desordem ou aleatoriedade de um sistema. Em termodinâmica, é a energia que não pode ser convertida em trabalho útil. Em teoria da informação, é a quantidade de incerteza ou informação contida em uma mensagem.
Significados de entropia
substantivo feminino
Grandeza que mede o grau de desordem molecular de um sistema; a energia que não pode ser convertida em trabalho útil.
"A entropia do universo tende a aumentar."
Neutro:
Antônimos:
Nota: Conceito fundamental em física e química.
substantivo feminino
Medida da incerteza ou da quantidade de informação em uma variável aleatória ou mensagem.
"A entropia de uma fonte de dados é crucial para a compressão."
Formal:
Neutro:
Antônimos:
Nota: Usado em ciência da computação, estatística e comunicação.
💡 Termo técnico com aplicações em diversas áreas científicas.
Origem da palavra entropia
Linha do tempo de entropia
Uma visão resumida de como esta palavra transita pela História: origem, uso histórico e vida contemporânea.
Cunhado pelo físico alemão Rudolf Clausius, derivado do grego 'entropía' (εντροπία), significando 'transformação' ou 'virada', de 'en-' (dentro) e 'trope' (virada, mudança).
Origem do Termo
Meados do século XIX — O termo 'entropia' foi cunhado pelo físico alemão Rudolf Clausius em 1865, derivado do grego 'entropía' (εντροπία), que significa 'transformação' ou 'virada', combinando 'en-' (dentro) e 'trope' (virada, mudança).
Expansão Conceitual e Uso Contemporâneo
Meados do século XX até a atualidade — O conceito de entropia transcende a física, sendo aplicado em teoria da informação (Claude Shannon, 1948), biologia, sociologia e até em contextos filosóficos e culturais. Em português, a palavra mantém seu caráter técnico, mas ganha ressonância em discussões sobre complexidade, desordem e a inevitabilidade do declínio ou da dispersão em sistemas diversos.
Mudanças de Sentido
Teoria da Informação — Quantidade de incerteza ou informação contida em uma mensagem.
Traduções de entropia
Inglês
Espanhol
Medida da desordem ou aleatoriedade de um sistema. Em termodinâmica, é a energia que não pode ser convertida em trabalho útil. Em teoria da informação, é a quantidade de incerteza ou informação contida em uma mensagem.