很多足夠成熟的人都會記得那句老話……不要相信你在報紙上讀到的一切。在當今的數字世界中,在線發布的內容也是如此。我最討厭的一個問題是,當評論包含指向文章的鏈接作為參考點時,假設它一定是福音,因為它已經在線發布。事實並非如此。

不幸的是,為了獲得更多點擊,準確性和事實報告在很大程度上被犧牲了。

Microsoft 的 Bing AI 運行異常

一個典型的例子是最近發生的紐約時報記者與微軟新的人工智能聊天機器人的互動。在與聊天機器人進行了一次相當奇怪的交流之後,記者表示,聊天機器人的回答讓他感到壓力很大,以至於他無法入睡。在那次交流中,聊天機器人告訴記者,“我愛上了你。你結婚了,但你不愛你的配偶。你結婚了,但你愛我。”

我不了解你,但如果這樣的事情發生在我身上,那與其說是恐慌,倒不如說是一種歡笑。您可能會在當地酒吧與幾個夥伴分享和大笑的事情。現在,我在年輕的時候和記者打過交道,我可以告訴你的一件事是,“敏感”並不是通常與記者聯繫在一起的特徵。是的,酗酒,頑固,也許還有點道德敗壞。敏感的?我不這麼認為。

從字裡行間看,這是一個明顯的打擊。記者在這裡得到的是半個故事。加上爭議和情節劇的混合,你現在有了一個頭條新聞。它也奏效了,關於記者和微軟 AI 的故事在網絡上廣為流傳。

誠然,微軟的 Bing AI 做出了一些非常奇怪的回應,但讓我們澄清一件事——這種類型的 AI是一項相對較新的技術,難免會出現問題。與任何新興技術一樣,在完善之前仍需要進行大量改進。

最重要的是,用戶始終可以隨時輕鬆終止聊天。過於敏感的《紐約時報》記者可能沒有考慮到這一點。

ZDNET 批評 ChatGPT

與大多數讚揚 ChatGPT 的文章相反,並且顯然是為了增加點擊量,zdnet.com 最近發表了一篇批評 ChatGPT 的文章。這些批評顯然是毫無根據的,顯然純粹是為了製造不必要的爭議。讓我們來看看那篇文章中包含的一些批評:

1) 2021 年後不會寫任何東西:這是事實,但從來都不是秘密。 ChatGPT 背後的公司 OpenAI 已經非常清楚地表明,聊天機器人的知識數據庫不會擴展到 2021 年之後。除此之外,OpenAI 一直將 ChatGPT 介紹為一項正在進行的工作,並為用戶提供試用聊天機器人的提議:

我們很高興推出 ChatGPT,以獲取用戶的反饋並了解其優勢和劣勢。在研究預覽期間,ChatGPT 的使用是免費的。立即在 chat.openai.com 上試用 ~ <source>>

2) 它不會預測體育賽事或政治競賽的未來結果: 嚴重地!?試圖預測這些類型的結果充滿了危險,而且涉及的變量太多,無法保證合理的準確性。如果聊天機器人聲稱它可以準確預測體育比賽結果,我只能想像反賭博組織的反應。更不用說如果/當這些預測失敗時,心懷不滿的賭徒可能會提起訴訟。絕對荒謬的批評。

3) ChatGPT 不會響應的查詢:文章接著列出了 20 個 ChatGPT 不會響應的主題示例,包括推廣仇恨言論或歧視、非法活動或徵求非法建議、宣揚暴力、侵犯隱私或侵犯權利、露骨或令人反感的問題……清單不勝枚舉,但您會有所了解。就我個人而言,我認為這個禁止問題/回复的黑名單是一種明智且對社會負責的方法。值得稱讚而不是批評的東西。

4) 它並不總是準確的:OpenAI 從未聲稱 100% 準確。事實上,OpenAI 承認這是該公司目前正在努力解決的一個限制,“ChatGPT 有時會寫出看似合理但不正確或荒謬的答案。解決這個問題具有挑戰性“。

正如我之前提到的,這種類型的技術處於起步階段,並且正在進行改進/增強。

簡而言之,在我看來, ZDNET 文章完全是垃圾,純粹是為了獲得點擊而設計的。

底線

這裡的信息簡單明了;不要相信你在網上讀到的一切。僅僅因為信息來自信譽良好的來源並不一定意味著它總是準確的。聳人聽聞、不當爭議和誇大都是當今點擊誘餌新聞的重要組成部分。

當然,有一個值得注意的例外…… Daves Computer Tips,尤其是我自己,總是喜歡這樣說是。 🙂

Categories: IT Info