Eliza是什么?为什么Eliza突然火了?值得关注吗?
Eliza值得关注吗?1966年,MIT的计算机科学家约瑟夫·韦曾鲍姆(Joseph Weizenbaum)创造了一个名为ELIZA的程序,这是一个可以通过一些规则和语言结构来模仿用户输入文本,实现简单人机交互的程序。尽管ELIZA的功能非常基础并不具备真正的理解能力,但它激发了人们对人机交互潜力的无限想象,但这个开创性的实验在自然语言处理篇章里留下了惊鸿一瞥,成为现代人工智发展的起点之一。
快进到2024年,“Eliza”这个名字再次出现在Web3的语境下的热议话题。这一次,它不再是个模拟对话的小工具,而是Web3世界中支持智能体构建与运作的底层框架。
它让开发者可以快速创建多功能的AI智能体,这些智能体能够自动完成交易、执行治理任务,甚至实时分析链上数据,并有望彻底改变了人们与区块链的互动方式。
Pic Source:https://elizaos.ai
为什么Eliza突然火了?
技术是个老梗,但趋势才是新故事
AI智能体的崛起背后,是AI和区块链的“世纪联姻”。从技术概念走向实际应用,成为加密领域的一大热点。这些智能体不仅是工具,更是“独立经济体”。通过自主执行任务,它们正在重新定义Web3中的“参与”与“价值”。正如当年的ELIZA打开了人机交互的大门,今天的Eliza框架也正在重塑人与链上网络的关系。
去中心化的全新参与者
AI智能体的另一个吸引点在于它们能与去中心化经济无缝融合。依托Eliza框架,开发者可以构建出功能强大的智能体,比如ai16z——一个虚拟风险投资基金,能够实时分析归纳特别社交频道中,用户交流的信息、文件,依据不同的消息权重制定投资决策,完成链上交互。
这种模式展示了一个新的可能性:人类不是唯一的经济参与者,智能体也可以成为价值链上的关键节点。
Pic Source:https://elizaos.ai
从框架到功能:AI智能体的幕后引擎
AI Agent框架是构建和运行AI智能体的核心工具,让开发者能够快速部署智能体,而用户则可以通过这些智能体获取前所未有的服务和价值。从投资辅助到内容生成,智能体的功能正在迅速扩展,背后的框架也成为加密行业创新的关键驱动力。相比NFT或meme,智能体因其功能性和可持续的商业模式,可能将在之后展现了更强的长线价值潜力。
一个有趣的例子是Eliza框架如何让ai16z得以实现自动化投资。基于Eliza框架,ai16z创建了一个虚拟风险投资基金,利用智能体驱动投资决策。它不是简单的买卖操作,而是通过机器学习模型分析链上数据,为社区提供实时洞察。Eliza以其模块化设计和开源生态,应用领域涵盖社交集成、资产发行和分析洞察等,展示了AI Agent框架的多样化潜力。这不仅提升了链上治理的效率,还有望将去中心化自治的理念推向了新的高度。
Web3里的“Eliza”们:可能引爆了哪些潮流?
尽管智能体市场仍处于早期阶段,但随着类似Eliza的AI框架普及,其潜力已不可忽视。随着AI Agent 框架的持续演进,我们可以预见以下趋势:
智能体的新经济形态
这些AI Agent不仅能执行任务,还能通过实时数据动态调整操作,比如优化网络资源分配,省钱赚钱两不误。。
链上社区的强化
智能体可以为链上社区提供实时信息整合、分析支持,帮助用户更快速、更精准地参与链上治理和经济活动。
技术的跨界融合
随着AI Agent框架与去中心化存储、计算平台的整合,这些智能体的功能将更加多样化。从金融服务到链上游戏,智能体可能无处不在。
智能体的崛起,不仅改变了用户与技术的互动方式,还带来了新的资产类别。这些数字实体逐渐形成了可交易、可投资的市场形态。与NFT类似,智能体通过代币化为用户提供了直接的经济利益,同时通过创新的功能性 服务,吸引了更多长期投资者。
正如历史上每一波技术浪潮,AI Agent 框架正在将复杂的技术转化为简单易用的工具,为Web3开辟新的边界。
但即便有了一个可聚焦的明确方向,AI智能体面临的考验也不小:
安全问题:如何防止智能体被黑客利用,避免资产损失?
中心化风险:尽管智能体是去中心化的,但框架的开发和控制权依然掌握在少数团队手中。
伦理争议:当智能体独立决策时,出了问题责任谁担?
从观察者到参与者,AI智能体为何值得你关注
AI智能体正推动Web3进入一个全新阶段,不仅提升效率,还重新定义了“参与”的概念。如果DeFi是上一轮浪潮的主角,那么AI智能体或将成为未来十年的核心驱动力。
正如AI专家吴恩达所说,AI的价值在于“任务导向性”——专注完成高价值任务,提升效率并普惠用户。AI智能体正是这种理念的延伸:它们简化链上操作,让普通用户一样可以高效参与。
与其仅做旁观者,不如思考:当人类与智能体在链上共存时,你将如何与它们共处?
Eliza是什么?Eliza聊天机器人:漫长而复杂的历史
在 1960 年代,一个名为 Eliza 的前所未有的计算机程序试图模拟与治疗师交谈的体验。在当时的一篇研究论文中进行的一次交流中,一个人透露,她的男朋友称她“大部分时间都很沮丧”。伊丽莎的回答是:“我很遗憾听到你很沮丧。”
Eliza 被广泛描述为第一个聊天机器人,但它不像今天的类似服务那样通用。该程序依赖于自然语言理解,对关键词做出反应,然后基本上将对话返回给用户。尽管如此,正如创造 Eliza 的麻省理工学院计算机科学家 Joseph Weizenbaum 在 1966 年的一篇研究论文中所写的那样,“有些科目很难说服 ELIZA(及其目前的脚本)不是人类。”
根据他在 2008 年麻省理工学院的讣告,对 Weizenbaum 来说,这一事实令人担忧。那些与 Eliza 互动的人愿意敞开心扉接受它,即使知道这是一个计算机程序。魏岑鲍姆在 1966 年写道:“ELIZA 表明,创造和维持理解的错觉是多么容易,因此也许是值得信赖的判断。”“其中潜伏着某种危险。” 他在职业生涯的最后时刻警告不要给机器过多的责任,并成为对人工智能的严厉、哲学批评。
近 60 年后,市场上充斥着来自科技公司、银行、航空公司等不同质量和用例的聊天机器人。在许多方面,Weizenbaum 的故事预示了这项技术仍然存在的炒作和困惑。程序与人类“聊天”的能力继续让一些公众感到困惑,造成机器更接近人类的错误感觉。
今年夏天早些时候,在一位谷歌工程师声称这家科技巨头的人工智能聊天机器人LaMDA 是“有感觉的”之后,这在媒体报道的浪潮中得到了体现。根据华 盛顿邮报的报道,这位工程师表示,在与聊天机器人讨论宗教和人格之后,他被说服了。报告。他的说法在人工智能界受到了广泛批评。
甚至在此之前,我们与人工智能和机器的复杂关系在《她》或《机械姬》等好莱坞电影的情节中就已经很明显了,更不用说与那些坚持对语音助手说“谢谢”的人进行无害的辩论了,比如Alexa 或 Siri。
Eliza 被广泛描述为第一个聊天机器人,但不像今天的类似服务那样多才多艺。它对关键词做出反应,然后基本上将对话返回给用户。
当代聊天机器人在不能按预期工作时也能引起用户强烈的情绪反应——或者当他们变得如此擅长模仿他们接受过的有缺陷的人类语言时,他们开始吐出种族主义和煽动性的评论。例如,Meta 的新聊天机器人本月没过多久就在与用户的对话中大肆发表不真实的政治评论和反犹太言论,从而引发了一些争议。
即便如此,这项技术的支持者认为它可以简化客户服务工作并提高更广泛行业的效率。这项技术支撑着我们许多人每天使用的数字助理来播放音乐、订 购送货或检查家庭作业的事实。有些人还为这些聊天机器人提供了案例,为孤独、年老或孤立的人提供了安慰。至少有一家初创公司甚至将其用作一种工具,通过根据上传的聊天创建计算机生成的死去亲属的版本,从而使死去的亲人看起来还活着。
与此同时,其他人警告说,人工智能驱动的聊天机器人背后的技术仍然比一些人希望的要有限得多。人工智能研究员、纽 约大学名誉教授加里马库斯说:“这些技术非常擅长伪装人类,听起来像人类,但它们并不深入。” “他们是模仿者,这些系统,但他们是非常肤浅的模仿者。他们并不真正理解他们在说什么。”
尽管如此,随着这些服务扩展到我们生活的更多角落,并且随着公司采取措施使这些工具更加个性化,我们与它们的关系也可能只会变得更加复杂。
聊天机器人的演变
Sanjeev P. Khudanpur 记得在研究生院时与 Eliza 聊天。尽管它在科技行业具有历史意义,但他说很快就看到了它的局限性。
它只能令人信服地模仿文本对话大约十几次来回,然后“你意识到,不,它并不聪明,它只是试图以一种或另一种方式延长对话,”该领域的专家 Khudanpur 说。信息论方法在人类语言技术中的应用,约翰霍普金斯大学教授。
2005 年 5 月,Eliza 的发明者 Joseph Weizenbaum 坐在德国帕德博恩计算机博物馆的电脑桌面前
另一个早期的聊天机器人由斯坦福大学的精神病学家 Kenneth Colby 于 1971 年开发,并命名为“Parry”,因为它旨在模仿偏执型精神分 裂症患者。(《纽 约时报》2001 年的 Colby讣告中包含了一段丰富多彩的聊天,研究人员将 Eliza 和 Parry 带到了一起。)
然而,在这些工具之后的几十年里,“与计算机对话”的想法发生了转变。Khudanpur 说这是“因为事实证明这个问题非常非常困难”。相反,重点转向“以目标为导向的对话”,他说。
要了解差异,请考虑您现在与 Alexa 或 Siri 的对话。通常,您会向这些数字助理寻求购买机票、查看天气或播放歌曲的帮助。这是面向目标的对话,随着计算机科学家试图从计算机扫描人类语言的能力中收集有用的信息,它成为学术和行业研究的主要焦点。
虽然他们使用与早期社交聊天机器人类似的技术,但 Khudanpur 说,“你真的不能称它们为聊天机器人。你可以称它们为语音助手,或者只是帮助你执行特定任务的数字助手。”
他补充说,在互联网被广泛采用之前,这项技术经历了长达数十年的“停滞”。“重大突破可能发生在这个千年,”Khudanpur 说。“随着成功使用计算机化代理执行日常任务的公司的兴起。”
随着 Alexa 等智能扬声器的兴起,人们与机器聊天变得更加普遍。
Khudanpur 说:“当他们的包丢失时,人们总是很沮丧,处理他们的人类代理人总是因为所有的消极情绪而感到压力很大,所以他们说,‘让我们把它交给电脑吧’。” “你可以对着电脑大喊大叫,它只想知道‘你有你的标签号码,这样我就可以告诉你你的包在哪里吗?’”
例如,2008 年,阿拉斯加航空公司推出了“Jenn”,这是一款帮助旅行者的数字助理。作为我们倾向于将这些工具人性化的一个标志,《纽 约时报》对该服务的早期评论指出:“Jenn 并不讨厌。在网站上,她被描绘成一个微笑的年轻黑发女郎。她的声音有适当的“
社交聊天机器人和社会问题
在 2000 年代初期,研究人员开始重新审视社交聊天机器人的开发,这种机器人可以与人类进行广泛的对话。这些聊天机器人经常接受来自互联网的大量数据的训练,并且已经学会了非常好地模仿人类的说话方式——但它们也冒着与互联网最糟糕的部分相呼应的风险。
例如,在 2015 年,微软对一个名为 Tay 的人工智能聊天机器人的公开实验在不到 24 小时内就崩溃并烧毁了。Tay 被设计成像青少年一样说话,但很快就开始发表种族主义和仇恨言论,以至于微软将其关闭。(该公司表示,人类也采取了协调一致的努力来诱骗 Tay 发表某些冒犯性的言论。)
微软当时表示:“你与 Tay 聊天的次数越多,她就越聪明,因此对你的体验可以更加个性化。”
其他发布公共聊天机器人的科技巨头将重复这种说法,包括本月早些时候发布的 Meta 的 BlenderBot3。Meta聊天机器人错误地声称唐纳德特 朗普仍然是总统,并且“肯定有很多证据”表明选举被盗,以及其他有争议的言论。
BlenderBot3 也自称不仅仅是一个机器人。在一次对话中,它声称“我现在还活着并且有意识的事实使我成为人类。”
Meta 的新聊天机器人 BlenderBot3 向用户解释了为什么它实际上是人类。然而,没过多久,聊天机器人就通过发表煽动性言论引发了争议。
尽管自 Eliza 以来取得了所有进步,以及训练这些语言处理程序的大量新数据,纽 约大学教授马库斯说:“我不清楚你是否真的可以构建一个可靠且安全的聊天机器人。”
他引用了 2015 年Facebook 的一个名为“M”的项目,这是一个自动个人助理,应该是该公司对 Siri 和 Alexa 等服务的基于文本的答案点一份浪漫的晚餐,让音乐家为你演奏,送花——这远远超出了 Siri 的能力,”马库斯说。相反,该服务在 2018 年因运行不佳而被关闭。
另一方面,Khudanpur 仍然对其潜 在用例持乐观态度。“我对人工智能将如何在个人层面赋予人类权力有完整的愿景,”他说。“想象一下,如果我的机器人可以阅读我所在领域的所有科学文章,那么我就不必全部阅读,我只需思考、提问并进行对话,”他说。“换句话说,我将拥有另一个自我,拥有互补的超级大国。”
以上就是脚本之家小编给大家分享的是Eliza是什么以及Eliza的全面介绍了,希望大家喜欢!
本站提醒:投资有风险,入市须谨慎,本内容不作为投资理财建议。