Meta 近日公布了一項關于注意力機制的新研究。該研究團隊將這種新注意力機制命名為“System 2 Attention”(S2A),可屏蔽無關信息的干擾,將大模型的準確率進一步提升。根據測試結果,該機制不需要微調或訓練,只靠 Prompt 就能讓大模型的準確率上升 27%。
S2A通過提示詞對Transformer中的注意力機制進行了“調節”,使模型整體上的思考方式更接近復雜、有意識的推理。