扫码下载
BTC $77,620.06 -1.09%
ETH $2,325.91 -3.48%
BNB $635.28 -1.47%
XRP $1.42 -2.63%
SOL $85.71 -3.44%
TRX $0.3283 -1.38%
DOGE $0.0966 -1.18%
ADA $0.2475 -3.02%
BCH $455.87 -1.97%
LINK $9.27 -2.81%
HYPE $41.18 -0.42%
AAVE $92.63 -1.49%
SUI $0.9400 -3.11%
XLM $0.1777 -0.73%
ZEC $329.81 +3.08%
BTC $77,620.06 -1.09%
ETH $2,325.91 -3.48%
BNB $635.28 -1.47%
XRP $1.42 -2.63%
SOL $85.71 -3.44%
TRX $0.3283 -1.38%
DOGE $0.0966 -1.18%
ADA $0.2475 -3.02%
BCH $455.87 -1.97%
LINK $9.27 -2.81%
HYPE $41.18 -0.42%
AAVE $92.63 -1.49%
SUI $0.9400 -3.11%
XLM $0.1777 -0.73%
ZEC $329.81 +3.08%

研究:长期依赖 ChatGPT 等大型语言模型或将损害认知能力

2025-06-20 10:03:23
收藏

ChainCatcher 消息,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖 ChatGPT 等大型语言模型(LLM)可能损害认知能力。

研究显示,使用 AI 写作的参与者大脑中 Alpha 波连接数量仅为独立思考者的一半(42 比 79),且 83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。

app_icon
ChainCatcher 与创新者共建Web3世界