当前位置:商业频道首页 > 头条推荐 > 正文

下岗?程序员暂时安全(3)

事实上,目前大型语言模型在工作中仍存在两个比较难解决的问题,一方面输入的信息不一定可以正确理解底层逻辑,可能需要与AI进行反复沟通。另一方面,AI输出的内容都很难避免错误和幻觉,在需要更严谨认真的工作中,没有人类的检查和监督,则会面临很大的风险。

人类程序员写程序的时候,结果基本是一定的,要么好,要么差。但大模型来了以后,就不好说了。”支付宝CTO陈亮表示,AI写程序的结果存在很大不确定性,“他可以写得比你好,也可能比你差。”这就需要人类程序员想办法去控制它或者去影响它。

陈亮认为,虽然不能像以前写程序一样确定输出结果,但可以通过翻译、语料、数据等去影响他,让AI有更大概率提供好的结果。

在Cognition刚刚发布Devin演示视频时,前特斯拉AI技术总监、OpenAI联创Andrej Karpathy,曾在X上发文评价表示:

“在我看来,自动化软件工程看起来与自动驾驶类似。自动驾驶的发展是:

1.首先人类手动执行所有驾驶动作

2.然后AI帮助保持车道

3.看到前车能减速

4.它也会变道

5.它也会在标志/红绿灯处停下并轮流通过

6.最终你会得到一个功能完整的解决方案,并不断提高质量,直到实现完全自动驾驶。

在软件工程中,进展的情况类似。都是人工智能做得更多,人类做得更少,但仍然需要监督:

1.首先人类手动编写代码

2.然后GitHub Copilot自动完成几行

3.ChatGPT写入代码块

4.转向越来越大的代码差异(例如Cursor copilot++风格)

5....

Andrej Karpathy认为,Devin是一个令人印象深刻的演示,可能会推动编码工具的进步,包括终端、浏览器、代码编辑器等,以及人类监督。

热点推送

本周关注

MORE