Os Transformers revolucionaram o campo da inteligência artificial, especialmente em tarefas de linguagem. Um dos componentes centrais dessa arquitetura é o bloco de atenção, que permite que o modelo foque em diferentes partes da entrada ao gerar uma saída. Qual é a principal função do mecanismo de atenção em um Transformer?