你对他们感兴趣吗 OFFERED? 使用我们的优惠券节省 WHATSAPP o 电报!

人工智能会改变我们的工作吗? 专家解答

随着技术的进步,真正的职业也在进步。 近年来,神经网络和机器学习领域取得了重大突破。 像这样的工具 ChatGPT 和 DALL-E 的能力已经非常惊人,并被用于各种领域。 TNW 接受采访 人工智能专业人士了解语言和生成模型对未来工作的影响。

人工智能让我们害怕,因为它可能会改变或窃取我们的工作。 但真的会这样吗?

ChatGPT 和类似的聊天机器人,但一般来说是人工智能,使信息更容易获得,也有助于探索新想法。 他们的文本通常逻辑清晰,只需几分钟即可生成。 因此,可以用我们喜欢的编程语言创建一篇文章、课程、广告标语甚至代码。 但是这样的结果真的像人做的那么好吗?

为了获得最佳结果,还需要一个人的创造力,为 AI 编写易于理解和清晰的指令。 然而,根据田纳西大学研究员 Lynn Parker 的说法,从长远来看,过度依赖虚拟助手会加速一项重要技能的丧失:写出与自己想法一致的文本的能力。 因此,有必要引入在教育机构中使用神经网络的规则,以便它们不会降低培训的有效性,而是会提高培训的有效性。

还有抄袭问题,人工智能基本不关心

专家们还担心将版权内容用作 AI 培训材料的问题。 对于生成图像的工具来说更是如此,但我们也不排除引用或“扔”到文章/文章中的文本片段。 研究表明,应用于 ChatGPT 的人工智能能够剽窃他人的作品。 您的创作可以被认为是原创的还是仅受现有作品的启发? 关于此事至今仍有争议。 

人工智能弹钢琴

错误:人工智能并非万无一失 (安科拉)

一个更严重的问题是人工智能的错误。 科罗拉多大学计算机科学教授 Daniel Akuna 用 ChatGPT 举了这个例子:在文本的情况下,存在意义错误,代码通常效率低下或根本不起作用。 所以神经网络产品需要批判性的分析和修改。 在另一个案例中,Meta 公司关闭了用于创建科学文本的 Galactica 聊天机器人项目。 事实证明,人工智能提出了看似令人信服的虚假事实。 算法也有偏差。 这很难避免,因为他们从并不总是客观的数据中学习。 ChatGPT 的创建者开发了限制机制,以防止神经网络谈论敏感话题。 但它们经常被用户绕过。 

然而,专家们确信,有一些方法可以消除这些困难。 随着时间的推移,语言模型将学习验证信息本身的准确性,方法是将信息与知识库进行比较,并通过高级抄袭检测工具运行文本。 但是,仍然建议批判性地评估所提供的信息。

那么,人工智能会抢走我们的工作吗?

显然不是,至少目前不是。 如果某些领域仍然需要人类技能,那么在其他领域,有时将任务委托给人工智能会更好。 例如,插图书籍 - 只需找到正确的查询和标签。 普通读者不会注意到其中的区别。 但这里的情况比看起来要复杂得多:人工智能能在多大程度上恢复温暖和同理心?

在与编写简单、标准文本相关的职业中,像 ChatGPT 这样的机器人可以提供帮助。 但在这里,也需要一个人来制定一个称职的请求,以及进一步的改变。 重要的是要记住,人工智能无法理解阅读的内容,也无法区分虚假信息和真实信息。 因此,结果的质量各不相同,手动细化是必不可少的。

可以肯定的是,还会有新的职业。 例如,技术专家为高度专业化的场景配置语言模型。 本质上,研究人员得出结论说,将人工智能助手整合到我们的运营中将带来激动人心的机会,这将改变人们与世界互动的方式。 但他们不会取代工人。

Gianluca Cobucci
Gianluca Cobucci

对代码、语言和语言、人机界面充满热情。 我对所有技术进化都很感兴趣。 我尝试以最清晰的方式表达我的热情,依靠可靠的来源,而不是“一开始”。

Sottoscrivi
通知
客人

0 评论
内联反馈
查看所有评论
XiaomiToday.it
商标