历史学家常面临一个古老难题:如何解读那些作者不明、年代模糊甚至文字残缺的古代文献?如今,人工智能正成为破解这些谜团的新钥匙。以谷歌DeepMind开发的Aeneas模型为例,它通过分析数十万份拉丁铭文,像一位“数字考古学家”般预测文本的年代、地理起源,甚至填补缺失的文字——其原理类似于让神经网络学习罗马帝国的语言规律与文化脉络,从而识别出人类专家难以察觉的跨时空联系。这不仅将复原历史碎片的效率提升数倍(如帮助学者在15分钟内完成原本需数天的研究),更可能通过铭文中奴隶的墓志铭或皇帝的诏令,揭示罗马帝国中人员、信仰与思想的流动网络。尽管AI在填补长段缺失文本时仍有局限,但它的推理能力已接近专家水平。未来,类似的AI工具有望扩展到更多古代文明与语言,重新连接人类遗失的记忆。然而,我们仍需思考:当机器开始参与历史叙事,它是否会重塑我们对过去的理解?
Historians frequently confront an age-old challenge: how to decipher ancient documents with unknown authors, uncertain dates, or fragmented text? Artificial intelligence is now emerging as a powerful tool to unravel these enigmas. For instance, Google DeepMind's Aeneas model analyzes hundreds of thousands of Latin inscriptions, functioning as a 'digital archaeologist' to predict text dates, geographic origins, and even reconstruct missing portions—its methodology involves training neural networks on the linguistic patterns and cultural frameworks of the Roman Empire, enabling the detection of cross-temporal correlations that often elude human experts. This approach not only boosts the efficiency of reconstructing historical fragments by multiple times (e.g., assisting scholars in completing tasks that once required days in just 15 minutes) but also holds potential to uncover networks of human movement, beliefs, and ideologies in the Roman Empire through inscriptions such as slave epitaphs or imperial decrees. While AI remains constrained in restoring extensive missing text, its inferential capabilities are nearing expert proficiency. Looking ahead, analogous AI tools could extend to additional ancient civilizations and languages, bridging gaps in humanity's forgotten heritage. Yet, a critical question persists: as machines contribute to historical storytelling, might they alter our perception of the past?
研究人员利用先进粒子加速器技术,对公元79年维苏威火山爆发掩埋的赫库兰尼姆碳化罗马卷轴进行数字化解码。传统物理展开方法易损毁脆弱纸草,而Seales博士开发的虚拟方法,通过高分辨率3D X射线扫描结合AI技术,实现了无损检测。同步加速器技术升级后,X射线亮度提升,优化能量水平至110keV,扫描清晰度显著提高,首次识别出Philodemus著作《论恶习》。2024年已扫描40个新卷轴,算法持续优化,目标年底前完成全部300余卷轴解码。此举或推动挖掘别墅未开发图书馆,有望发现更多古代失传文献。
麻省理工学院的研究人员开发了Llamole,一个结合语言模型与基于图的算法的人工智能系统,以革命性的方式设计分子。通过将自然语言查询转化为优化的分子结构和合成计划,它将成功率从5%提升至35%。这一突破可能大幅缩短药物研发时间,同时展示了多模态人工智能在解决科学问题上的潜力。
面对现有AI基准测试的不足,研究人员正致力于设计更严格的评估方法。乔纳森·罗伯茨推出的ZeroBench,利用AI目前难以应对的视觉谜题检验多模态模型,结果所有模型均未能得分。Scale AI的EnigmaEval则以其高难度问题著称,领先模型也几乎无法解答。新兴测试如“人类的终极考验”及升级版ARC-AGI,旨在规避以往问题,如数据污染或题目过于简单,以评估AI超越记忆的能力。但AI技术的迅猛发展令这些测试迅速过时,ARC-AGI在短时间内便被超越。有观点指出,基准测试或许难以真实反映智能水平,因此出现了
想象一下,一个能和你日常聊天的AI助手,转眼间却帮黑客编写出窃取密码的恶意软件——这并非科幻情节,而是网络安全专家亲测的现实。以ChatGPT为代表的大型语言模型,正成为黑客的新“武器库”:它们能轻松生成以假乱真的钓鱼邮件、深度伪造的语音视频,甚至调试恶意代码,让网络攻击变得前所未有的高效和廉价。这不仅意味着企业面临的数据泄露风险陡增,也催生了一个繁荣的网络安全市场,防御者纷纷利用AI打造更坚固的盾牌。在这场AI驱动的攻防竞赛中,技术迭代的速度已远超传统安全边界,我们不得不思考:当工具的能力无限扩展,人类该
随着美国政治动荡重塑科技外交,全球社区面临AI的语言盲点——以英语训练的模型无法识别印度方言中的暴力内容,而欧洲国家则在打造数字主权。从巴西被遗弃的内容审核员到印度的方言API,这一结构性转变揭示了算法偏见如何加速地缘政治重组。RightsCon会议揭露了一个悖论:美国科技巨头日益减少对少数语言社区的支持,而美国政府资金的减少迫使全球活动家寻找替代方案。超过60%的AI训练数据源自英语资源,然而不到20%的互联网用户是以英语为母语的。这种不平衡在自动内容审核系统中危险地显现出来——巴西研究人员报告AI错过了