Definição ou significado de terrear – a palavra terrear significa mostrar-se sem vegetação na Língua Portuguesa.
É o conceito de terrear mais comum e no sentido de vegetação.
Significado de terrear
verbo
- Aparecer a terra nua de vegetação.
- Colocar terra nalgum sítio ou encher algo.
- Arcaico: aproximar-se da terra.
Referências
Advém da construção terra + ear..