在激烈的人工智能领域,Meta发布了Code Llama,一个用于生成和解释代码的机器学习系统,旨在引起轰动。该公司以开源的方式共享这一创新,进一步推动人工智能领域的发展。
Meta,以其创新和开放的方法,早前发布了一系列用于生成文本、翻译语言和创建音频的人工智能模型。如今,他们将这一努力延伸至代码领域,通过开源Code Llama来生成各种编程语言的代码,包括Python、C++、Java、PHP、TypeScript、C#和Bash等。
Code Llama类似于一些著名的开源人工智能代码生成器,如GitHub Copilot和Amazon CodeWhisperer等。它基于Llama 2文本生成模型,针对特定的自然语言(尤其是英语),可以生成并解释代码。
在Meta与TechCrunch分享的博客文章中,他们表示:“在Meta,我们坚信人工智能模型,尤其是用于编码的大型语言模型,从开放的方法中受益最多。公开的、针对代码的模型可以推动新技术的发展,从而改善人们的生活。通过发布Code Llama等代码模型,整个社区可以评估其能力、识别问题并修复漏洞。”
Code Llama有多个版本,包括专为Python优化的版本和经过微调以理解指令的版本。这些模型使用了来自网络公开资源的数据集进行训练,着重于包含代码的数据子集。模型的大小从70亿个参数到340亿个参数不等,使用5000亿个代码标记进行训练。其中,Python特定的版本在1000亿个Python代码标记上进行了微调,指令理解版本使用人类注释者的反馈进行微调,以生成“有用”且“安全”的问题答案。
代码生成工具在程序员和非程序员中都可能产生巨大的吸引力。例如,GitHub声称有超过400个组织正在使用Copilot,这使得开发人员的编码速度比以前提高了55%。Stack Overflow的调查也显示,70%的人已经在使用或计划使用人工智能编码工具,以提高生产力和学习速度。
然而,与所有形式的生成人工智能一样,编码工具可能会带来新的风险。研究表明,使用人工智能工具的工程师更有可能在其应用程序中引入安全漏洞。此外,一些代码生成模型可能会在受版权保护或受限制的许可下进行训练,可能引发知识产权问题。还有黑客试图将开源代码生成器用于编写恶意代码的风险。
Code Llama已经在Meta内部进行了红队部署,但尽管如此,它仍然可能会在一些情况下产生不准确或令人反感的响应。Meta坦承,Code Llama在某些情况下可能会出错,因此在将其部署到应用程序中之前,开发人员需要对其进行安全测试和调整。
虽然存在风险,但Meta对于Code Llama的部署设置了相对宽松的限制。开发人员只需同意不将模型用于恶意目的,并且在将其部署在超过7亿月活跃用户的平台上时,需要申请许可证。
Code Llama的开源发布旨在为各领域的软件工程师提供支持,包括研究、工业、开源项目、非政府组织和企业。Meta希望这一举措能够激发其他人利用Llama 2创建新的创新工具,为研究和商业产品开发提供更多的支持。
总的来说,Meta的Code Llama代表了人工智能领域的一项重要进展,将代码生成的能力推向了一个新的高度。尽管存在一些潜在的风险和挑战,但随着技术的不断发展,我们可以期待看到更多创新和解决方案的出现,以更好地满足开发人员和用户的需求。
声明:本文来自潮外音创作者,内容仅代表作者观点和立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。
查看更多