建议用户始终仔细检查Bard的回复,仔细测试和审查代码中的错误、漏洞和弱点。如果Bard从现有的开源项目中详细引用来给出答案,它会给出源代码的出处所在。”
有分析称,鉴于ChatGPT和Bing AI等生成式AI领域竞争对手都已经支持代码生成功能,选择参与竞争的谷歌推出类似功能不难预料。不过,3月才推出的Bard流行程度还比不上去年推出的ChatGPT。其他使用生成式AI编程的工具还有GitHub旗下的Copilot以及OpenAI Codex。
值得注意的是,全球最大的代码托管平台GitHub已于2018年被微软收购,而ChatGPT背后的母公司OpenAI也由微软大力投资支持。微软目前俨然是AI争霸赛的最大赢家。
此前有消息称,三星新款手机要将微软必应当做默认搜索引擎,替换掉谷歌,谷歌“恐慌后”称将全力推进新AI搜索引擎。谷歌本周还将DeepMinsd与谷歌大脑合并,市场认为,谷歌的这两个专注于AI的团队合并后,将有助于该公司在AI的竞争中取得优势。
律所Womble Bond Dickinson发文提示称,能生成代码的AI工具拥有令人兴奋的潜力,但希望利用这些技术的用户应该采取预防措施,“以免撞到藏在机器学习算法表面下的石头”。
文章称,近期三星经历了三起涉及 ChatGPT 的企业机密泄露事件。半导体工程师曾两次将机密源代码信息输入ChatGPT以修复和优化代码。另有一位注重效率的员工要求ChatGPT总结会议记录。 由于ChatGPT保留用户输入数据以进行自我训练,该员工无意中向OpenAI泄露了三星机密信息:
“但无意中泄露机密信息并不是使用ChatGPT的唯一潜在陷阱,最近针对GitHub、其母公司微软及其业务合作伙伴OpenAI提起的集体诉讼就证明了这一点。
原告称,GitHub的人工智能编码助手Copilot盗用了可以追溯到开源存储库或开源被许可方的软件。GitHub承认使用来自GitHub上大量可公开访问的代码存储库数据来训练Copilot,据称其中大部分原本需要注明原作者的出处。但Copilot在没有提到原作者的情况下了很长一段代码。
对生成代码特别感兴趣的AI用户请仔细检查源代码。如果一家公司利用人工智能生成代码,应通过开源许可工具运行生成的代码,以确定代码的来源并检查代码是否已获得授权许可。
虽然由AI自身编写的代码可能不受版权保护(版权局最近重申,要获得版权保护,任何作品都必须有足够的人类创造性参与),但由人类编写、构思或概述的源代码,就算背后有人工智能的辅助,可能也是受版权保护的。
在使用人工智能工具时,公司还应考虑向人工智能导入的内容是否被视为商业秘密,是否采取了足够的步骤来确认和保护内容的机密性,以及人工智能的任何输出是否同样属于商业秘密。”
本周还有批评性质的报道揭露,谷歌似乎为了急于应战ChatGPT而不管伦理道德。公司内测员工称Bard是“病态的骗子”、答复可能让人丧命。例如,Bard给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。
但谷歌已提高警惕。上周日,谷歌CEO Sundar Pichai警告,如果对AI部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为AI的快速发展做好准备,因此需要更强有力的监管。