1.png

(来自:GitHub Blog

然而在 Copilot 问世之后,GitHub 还是遭遇了大量的批评。比如开源软件倡导者抱怨称,Copilot 需要结合闭源软件编辑器才能运行(比如微软Visual Studio 或 VS Code 集成开发环境),并且构成了一项软件替代服务,意味 Copilot 是一种获得超越他人计算能力的不公方式。

与此同时,自由软件基金会(FSF)也就 GitHub Copilot AI 辅助编程工具发表了意见 ——“从我们的角度来看,Copilot 是不可接受且非正义的”。此外针对 Copilot 存在的诸多问题,仍需通过法律途径展开磋商。

FSF 指出,开发者想知道在其软件上开展的神经网络训练,是否可被视作合理使用。

其他可能想要使用 Copilot 的人,也想知道从 GitHub 托管的存储库只能够复制的代码片段、以及其它元素,是否会侵犯版权。

可即便从法律层面上做到了合乎情理,大家还是很想知道,一家专有软件公司公司在其工作中构建的服务,是否存在根本性的不公正?

3.jpg

要回答 FSF 提出的这些问题,显然需要仔细审视以下几点:

(1)Copilot 利用公共存储库资源对 AI 展开训练,是否构成了合理使用、或侵犯版权?

(2)能否确保使用 Copilot 的开发者,遵守 GPL 等免费软件许可证?

(3)在 Copilot 输出生成后,针对违反 GPL 许可的产品,进行诉讼索赔的可能性有多大?

(4)开发者如何确保他们拥有的版权代码,免受基于 Copilot 的违规调用?

(5)版权所有者如何才能发现由 Copilot 生成代码导致的违反自由软件许可的行为?

(6)训练有素的 AI / ML 模型是否受版权保护?版权又在谁的手上?

(7)诸如 FSF 这样的组织,是否应该主张修改版权法案,以化解这些方面的问题?

据悉,FSF 已经为白皮书做好了准备,如需进一步的研究,该组织还将投入更多资源和精力。

感兴趣的朋友,可移步至 FSF.org 官网了解详情。或于 8 月 21 日之前,将相关建议发送至 license@fsf.org 。

最后,针对即将面临的挑战,微软回应称这是一个全新的领域。该公司热衷于与开发者就这些主题展开讨论,并引领行业为训练 AI 模型而制定适当的标准。


本文来源:cnBeta 如有侵权请联系管理删除