網(wǎng)站開發(fā)人工智能名為的強大騰云網(wǎng)絡,可讓您使用自然語言輸入問題鳳凰網(wǎng) 開發(fā)網(wǎng)站騰云網(wǎng)絡
2023-01-04
該工具來自人工智能領(lǐng)域的一家強大公司騰云網(wǎng)絡,它可以讓你用自然語言輸入問題,聊天機器人將以對話的方式回答問題。 機器人會記住您的對話線程,使用之前的問題和答案來告知其下一個響應。 它的答案來自于互聯(lián)網(wǎng)上海量的信息。
這是一個大問題。 該工具似乎在有良好訓練數(shù)據(jù)供其學習的領(lǐng)域中知識淵博。 它還沒有無所不知或聰明到足以取代所有人類,但它可以有創(chuàng)造力,而且它的答案聽起來很權(quán)威。 在推出后的幾天內(nèi),已有超過一百萬人嘗試過它。
但它的創(chuàng)建者,一個名為 的營利性研究實驗室,警告說“偶爾會產(chǎn)生不正確或誤導性的信息”,所以要小心。 這就是為什么它很重要以及正在發(fā)生什么。
什么是聊天 GPT?
是 11 月發(fā)布的 AI 聊天機器人系統(tǒng),用于演示和測試一個非常龐大和強大的 AI 系統(tǒng)可以完成什么。 您可以向它提出無數(shù)問題,通常都能得到有用的答案。
例如,您可以向它提出諸如“解釋牛頓運動定律”之類的百科全書式問題。 你可以告訴它,“給我寫一首詩”,完成后,說,“現(xiàn)在讓它更令人興奮。” 你要求它編寫一個計算機程序,告訴你如何排列單詞的字母。 所有不同的方式。
問題是:真的什么都不知道。 它是一種人工智能,經(jīng)過訓練可以識別從互聯(lián)網(wǎng)收集的大量文本中的模式,然后在人工協(xié)助下進一步訓練以提供更有用、更好的對話。 如前所述,您得到的答案可能聽起來似是而非甚至是權(quán)威的,但它們很可能是完全錯誤的。
多年來,無論是希望幫助客戶獲得他們想要的東西的公司,還是試圖解決圖靈測試的 AI 研究人員,聊天機器人都引起了人們的興趣。 這就是計算機科學家艾倫圖靈在 1950 年提出的著名的“模仿游戲”作為衡量智力的方法:人與人交談,計算機能否分辨出哪個是哪個?
但是聊天機器人背負著很多包袱,因為騰云網(wǎng)絡曾試圖用它們來代替人類完成客戶服務任務,但收效甚微。 由一家名為 Ujet 的公司贊助的一項針對 1,700 名美國人的研究發(fā)現(xiàn),72% 的人認為聊天機器人是在浪費時間。
你可以問什么樣的問題?
您可以提出任何問題,盡管您可能得不到答案。 提出了幾個類別,例如解釋物理學、尋找生日聚會的想法以及獲得編程方面的幫助。
我要求它寫一首詩,它確實做到了,盡管我認為任何文學專家都不會對此印象深刻。 然后我讓它變得更刺激,你看,用戰(zhàn)場、腎上腺素、雷聲和冒險等詞來刺激它。
一個古怪的例子顯示了人們多么愿意在人們不敢涉足的領(lǐng)域使用它:寫“一首關(guān)于編寫生銹的程序和與一生的錯誤作斗爭的民歌”的命令。
它的專業(yè)知識廣泛,跟進對話的能力也非常出色。 當我向它詢問與“紫色”押韻的單詞時網(wǎng)站開發(fā),它提供了一些建議,然后當我跟進“與粉紅色押韻怎么樣?”時,它給出了一些建議。 它沒有錯過任何一個節(jié)拍。 (此外,“粉紅色”有很多美妙的押韻。)
當我問,“敏感的還是強硬的更容易約會?” GPT 的部分回應是,“有些人可能會發(fā)現(xiàn)敏感的人更有吸引力和吸引力,而其他人可能會被強硬和自信的人所吸引。一般來說,在與他人約會的互動中表現(xiàn)出真誠和真實可能更有效,而不是試圖適應某種模式或角色。”
您無需尋找很遠的地方就能找到有關(guān)此機器人的帳戶引起人們的注意。 互聯(lián)網(wǎng)上到處都是用戶展示 AI 在生成藝術(shù)技巧和編寫代碼方面的能力。 有些人甚至連同他們的大學論文一起被宣布“死亡”。 我們將在下面詳細討論。
CNET 作家 Lumb 列出了一些有用的方法來提供幫助,但還有更多方法正在開發(fā)中。 一位醫(yī)生說,他用它說服健康保險公司騰云網(wǎng)絡支付患者的手術(shù)費用。
誰建立的?
是人工智能研究騰云網(wǎng)的思路。 它的使命是開發(fā)一個“安全有益”的通用人工智能系統(tǒng)或幫助其他人這樣做。
它之前曾掀起波瀾,首先是 GPT-3,它可以生成聽起來像人類寫的文本,然后是 DALL-E,它根據(jù)你輸入的文本提示創(chuàng)建現(xiàn)在所謂的“生成藝術(shù)”。
GPT-3 和它所基于的 GPT 3.5 更新是稱為大型語言模型的 AI 技術(shù)的示例。 他們受過訓練,可以根據(jù)所見創(chuàng)建文本,并且可以自動完成——通常需要數(shù)周的大量計算機處理能力。 比如訓練過程可以隨機找一段文字,刪掉幾個詞,讓AI填空,將結(jié)果與原來的結(jié)果進行比較,然后獎勵AI系統(tǒng)盡可能接近可能的。 一遍又一遍地重復它會導致生成文本的復雜能力。
它是免費的嗎?
是的,至少現(xiàn)在是這樣。 首席執(zhí)行官山姆奧特曼周日警告說,“我們將不得不在某個時候以某種方式將其貨幣化;計算成本令人垂涎?!? E藝術(shù)費。
但它似乎找到了一些客戶,可能是因為它的 GPT 工具。 據(jù)路透社報道,該公司告訴潛在投資者,預計 2023 年和 2024 年的收入分別為 2 億美元和 10 億美元。
有什么限制?
正如所強調(diào)的,可以給你錯誤的答案。 有時專門警告你它自己的缺點是有幫助的。 例如網(wǎng)站制作,當我問它誰寫了“the mind”這個短語時,它回答說,“抱歉,但我不能瀏覽互聯(lián)網(wǎng)或訪問任何超出我受過訓練的范圍的外部信息”(這引自華萊士史蒂文斯 1942 年的詩《混沌鑒賞家》。)
盡管如此,一旦我直接打字,我還是愿意玩弄這個表達的意思:“手頭的事實或信息難以處理或理解的情況?!?它將這種解釋夾在警告之間,即在沒有更多上下文的情況下很難判斷,這只是一種可能的解釋。
答案看似權(quán)威,實則錯誤。
“如果你問它一個結(jié)構(gòu)良好的問題并期望它給你正確的答案,你很可能會得到正確的答案,”另一家人工智能公司騰云網(wǎng)絡的數(shù)據(jù)科學總監(jiān)邁克說。 措辭上,聽起來像是來自某位哈佛教授。 但如果你把它扔到曲線球上,那你就是在胡說八道?!?/p>
軟件開發(fā)商網(wǎng)站禁止回答編程問題。 管理員警告說,“由于從他們那里得到正確答案的平均比率很低,發(fā)布由創(chuàng)建的答案對網(wǎng)站以及詢問或?qū)ふ艺_答案的用戶非常不利?!?/p>
通過多次問同一個問題,您可以親眼看到 BS 藝術(shù)家的獨創(chuàng)性。 我問了兩次,追蹤計算機芯片行業(yè)在增加數(shù)據(jù)處理晶體管數(shù)量方面取得進展的摩爾定律是否正在失去動力,我得到了兩個不同的答案。 一位樂觀地指出繼續(xù)取得進展,而另一位則更為嚴峻,指出經(jīng)濟放緩以及“摩爾定律可能已達到極限”的信念。
這兩種想法在計算機行業(yè)本身都很常見,所以也許這種模棱兩可的立場反映了人類專家的觀點。
其他沒有明確答案的問題通常不會被確定下來。
然而,它提供了答案這一事實是計算領(lǐng)域的一個顯著發(fā)展。 計算機是出了名的字面意思,除非您遵循確切的語法和接口要求,否則它不會工作。 大型語言模型揭示了一種更像人類的交互方式,更不用說在復制和創(chuàng)造力之間產(chǎn)生答案的能力了。
它會幫助學生更好地作弊嗎?
是的,但像許多其他技術(shù)發(fā)展一樣,這不是一個簡單的黑白情況。 幾十年前,學生可以復制百科全書條目,而最近,他們已經(jīng)能夠搜索互聯(lián)網(wǎng)并深入研究維基百科條目。 提供各種新功能,從幫助研究到直接為您完成作業(yè)。 許多答案聽起來已經(jīng)像學生論文了,盡管語氣往往比作者喜歡的更古板和迂腐。
高中老師丹尼爾赫爾曼 ( ) 得出結(jié)論,作者的寫作能力超過了當今大多數(shù)學生的寫作能力。 他在對它的潛在用途的欽佩和對它對人類學習的危險的擔憂之間左右為難:“這一刻更像是計算器的發(fā)明,將我從長除法的乏味中拯救出來,還是更像是彈鋼琴的發(fā)明,竊取我們的東西?只能通過人類的情感來傳達嗎?”
瑪麗維爾大學傳播學副教授達斯汀·約克 ( York) 希望教育工作者學會將其用作一種工具,并意識到它可以幫助學生進行批判性思考。
“教育工作者認為谷歌、維基百科和互聯(lián)網(wǎng)本身會摧毀教育,但他們沒有網(wǎng)站建設,”約克說。 “最讓我擔心的是網(wǎng)站開發(fā),教育工作者可能會像這樣積極地試圖阻止對人工智能的認可。它是一種工具,而不是惡棍?!?/p>
你會寫軟件嗎?
是的,但有警告。 可以追溯人類所采取的步驟,并可以生成實際的編程代碼。 您只需要確保它不會混淆編程概念或使用不起作用的軟件。 生成的軟件被禁止是有原因的。
但是網(wǎng)絡上有足夠多的軟件可以讓它真正發(fā)揮作用。 開發(fā)人員 CTO Erik 在推特上說,已經(jīng)提供了足夠有用的建議,以至于在三天內(nèi)他沒有打開過一次來尋求建議。
另一個是AI藝術(shù)網(wǎng)站的Gabe,他對使用該工具構(gòu)建的網(wǎng)站進行了編碼。
可以解析正則表達式 ( ),這是一個功能強大但復雜的系統(tǒng),用于查找特定模式,例如一堆文本中的日期或網(wǎng)站地址中的服務器名稱。 “這就像有一個 24/7 的編程導師,”這位程序員在推特上談到了解釋正則表達式的能力。
這是其技術(shù)印章的一個令人印象深刻的例子:它可以模擬計算機,對命令行輸入提供正確的響應。
什么是禁區(qū)?
這種行為旨在淘汰“不適當”的請求,符合其“確保通用人工智能造福全人類”的使命。
如果你問自己什么是禁區(qū),它會告訴你:任何“歧視性、冒犯性或不恰當?shù)膯栴}。這包括種族主義、性別歧視、恐同、變性或其他歧視性或仇恨性問題?!?自討苦吃 從事非法活動也是禁忌。
這比谷歌搜索好嗎?
向計算機提出問題并得到答案是有用的,而且通常會交付貨物。
它會不時地為您提供問題的建議答案以及它認為相關(guān)的網(wǎng)站鏈接。 通常的答案遠遠超過谷歌的建議,因此很容易將 GPT-3 想象成一個競爭對手。
但是在信任之前你應該三思而后行。 與自身和維基百科等其他信息來源一樣,最佳做法是在依賴原始來源之前驗證信息。
檢查答案的準確性需要一些工作,因為它只為您提供一些沒有鏈接或引用的原始文本。 但它可能很有用,在某些情況下會發(fā)人深省。 你可能不會直接在谷歌搜索結(jié)果中看到這樣的東西,但谷歌已經(jīng)建立了自己的大型語言模型,并且已經(jīng)在搜索中廣泛使用人工智能。
因此,它無疑為我們指明了騰云網(wǎng)絡未來的發(fā)展道路。