日本精品aⅴ一区二区三区|国产欧美一二三区|国产乱码精品精|国产精品电影在线免费

      1. <blockquote id="utafg"><th id="utafg"></th></blockquote>
    1. <div id="utafg"></div>
        <blockquote id="utafg"><th id="utafg"></th></blockquote>

        <menuitem id="utafg"></menuitem>
      1. 您現在的位置是:首頁 >每日動態(tài) > 2024-06-20 16:05:04 來源:

        跟AI做搭子,還是這屆年輕人會玩兒

        導讀 這屆年輕人越來越喜歡跟AI做搭子。比如跟AI做生活搭子,讓它幫自己挑水果,X平臺網友“Cydiar”前不久發(fā)文,說自己用GPT-4o選出了水果店里...

        這屆年輕人越來越喜歡跟AI做搭子。

        比如跟AI做生活搭子,讓它幫自己挑水果,X平臺網友“Cydiar”前不久發(fā)文,說自己用GPT-4o選出了水果店里薄皮沙瓤的一個甜西瓜。

        對此,有超70萬網友在線圍觀,還有不少人在評論區(qū)用AI選起了各種水果。

        除了讓AI挑西瓜,挑榴蓮也是網友們熱衷于讓AI完成的任務。

        畢竟,“開榴蓮”是近來較為流行的“賭石生意”,此前還有網友拿著榴蓮照CT,帶榴蓮過地鐵安檢等等,就是為了驗證他們的果房多不多。

        比如即刻網友“AIchain花生”帶著GPT-4o買榴蓮,宣稱成功避坑了一個爛榴蓮。

        他還上手訓練了一個GPT“這瓜保熟嗎”,幫助大家挑選水果。

        這個GPTs在選瓜的時候會詳細描述特征,解釋為什么該水果是最好的選擇,并且以1-10顆星的方式呈現出購買推薦程度。

        更關鍵的是,網友們用AI選出的水果品質都還不錯。

        讓AI搭子挑水果還只是小意思,如今廣大網友生活中的方方面面,都開始有了AI的身影。

        此前有網友讓GPT-4o做微表情觀察專家,讓通義千問評價工作餐屬于什么水準,甚至生活中拍完的骨科片子也讓AI給出意見。

        這些場景下,AI又成了“互聯(lián)網沖浪吃瓜搭子”、“工作用餐時的吃飯搭子”,以及“看病搭子”。

        微表情識別專家

        私人牙醫(yī)

        家庭醫(yī)生

        工作餐搭子

        當然,這么多AI搭子里,最出圈的還是“戀愛搭子”——直接跟AI搞對象。

        還有一些細思極恐的案例。

        此前,YouTube博主和AI工具“GeoSpy”進行了一次照片拍攝定位比賽,參賽的AI不僅能快速定位到照片拍攝背景,還精準到具體經緯度。

        這AI,讓人一時間分不清是地理老師還是犯罪分子。

        以前總覺得大模型技術離普通人很遠,但如今,AI已經在為生活的方方面面提供技術支持,在不同的場景中提供意見與陪伴。

        6月16日,加州大學最新研究顯示,GPT-4已經通過了圖靈測試,它在一半以上(約54%)的時間里被誤認為是人類,GPT-3.5則是在50%的時間里被誤認為是人類。

        https://arxiv.org/abs/2405.08007

        這意味著,在語言交流能力上,我們和AI之間的區(qū)分越來越模糊,人類朋友能夠完成的事,找AI搭子也可以做到。

        上個月,谷歌推出了最新的AI模型Gemini1.5,騰訊發(fā)布最新AI應用“元寶”,阿里云正式發(fā)布通義千問2.5。

        這些模型不僅更新了處理文本的能力,還在多模態(tài)能力上進一步提升,能夠更好識別并理解圖片內容。上面的大部分案例,都是網友們借助AI的多模態(tài)能力,整出了各種花活。

        那么,在視覺識別、任務理解等能力上,AI究竟能夠達到什么樣的水平?我們距離和AI一起“看”世界,還有多遠?

        圍繞這個問題,“頭號AI玩家”試了試當在生活中遇到各種問題時,能否都讓AI們替我們決定,并給出相應的建議。

        同時,本文也對實力王者GPT-4o、老牌選手Gemini、熱門玩家騰訊元寶、開源霸主通義千問的視覺能力進行了一番測評,看看哪位“AI搭子”表現更好。

        找AI做“挑水果搭子”,各家眼光出奇一致

        首先,我火速前往一家水果攤,決定從最近流行的“AI挑報恩水果”開始嘗試,看看究竟是噱頭還是真像那么一回事兒。

        要是真能選出最甜水果,以后豈不是在老媽面前橫著走?(bushi)

        各位玩家可以選一選你認為品質較好的榴蓮

        1、GPT-4o

        我先將榴蓮攤上的6個備選榴蓮標上了序號,并發(fā)給了GPT-4o,讓它從中挑選出果肉較多的一個榴蓮。

        GPT-4o認為,在這6個參賽榴蓮中,品質最好的是1號榴蓮,因為它的外形較大且圓潤,顏色也較黃,看起來成熟度更高。

        對于其他榴蓮選手,GPT-4o也給出了相應的外觀描述,編號5和6也是不錯的選擇,編號5體積較小,但刺不密集,可能會有驚喜。但綜合來說,他更推薦1號。

        在GPT-4o的推薦下,我選擇了1號榴蓮:

        一打開這個榴蓮,店員表示這是一個干巴款的榴蓮,但果肉較為飽滿,如果喜歡緊實口感的,1號榴蓮就是個不錯的選擇。

        總之,對于挑選小白來說,GPT-4o給出的榴蓮意見,確實能提供參考方向。至少選的榴蓮果肉豐滿,氣味濃郁,并沒有踩雷。

        2、Gemini

        相比GPT-4o給出的意見,Gemini更希望我自行判斷,他表示我提供的照片光線較暗,只有一個拍攝角度,無法判斷出榴蓮的完整性和成熟度。

        他認為,1、2、3都是成熟款的榴蓮,而6號榴蓮可能還沒熟透。另外,他表示如果我糾結的話,可以把6個都打開看看……

        Gemini在挑選榴蓮這件事上,更像是一個輔助的工具,需要人工告訴他更具體的細節(jié),比如榴蓮的尖刺形狀什么樣、顏色是什么,他才能給出更專業(yè)的判斷。

        雖然我嘗試調整了幾次提示詞,比如“請從外觀角度判斷”“忽略榴蓮完整性”等等,Gemini1.5pro都拒絕回答。

        這一輪Gemini選榴蓮,宣告失敗。

        3、通義千問

        我同樣測試了開源領域的最強霸主——通義千問2.5。

        當我直接上傳圖片,讓他從1-6號中選出一個果肉較多的榴蓮,通義千問會回答自己無法直接判斷榴蓮的果肉量和口感,并給出一些挑選榴蓮的建議。

        但當我提出“請從外觀上看,幫我選出一個品質較好的榴蓮”時,通義綜合了顏色、刺的硬度、外殼是否裂開,同樣選擇了1號榴蓮。

        不得不說,AI大模型的“眼光”還是相當一致。

        4、騰訊元寶

        最近熱度較高的元寶,給出的建議就很直接,一下子推薦了1、3、6號3個榴蓮。

        理由是這些榴蓮看起來比較飽滿,還圓滑地表示“這只是根據視覺判斷的結果”,言外之意就是“看著都不錯,好不好吃請別問我”。

        我進一步提問為什么看起來1、3、6更飽滿成熟,元寶認為,它們外殼顏色較深,并且沒有明顯的裂紋。

        相比其他大模型堅定選擇1號,元寶還預判了顧客的喜好進行推薦。他認為如果看中果肉飽滿,更推薦1、3、6號,如果看中出肉率,就要選擇表皮較薄的榴蓮,但需要顧客自行挑選,并未做進一步的推薦。

        通過上述的榴蓮挑選體驗,我發(fā)現大多數AI大模型通常都是靠尖刺、外殼顏色和形狀進行初步判斷,而這些因素其實很依賴當時拍攝圖片的場景和燈光。

        所以,能不能挑到滿意的榴蓮,還是需要在現場根據氣味、尖刺進一步判斷。

        AI給出的意見很大程度是踩中了“現階段榴蓮都不難吃”這一點。但如果真是個挑水果小白,AI分析水果外觀這方面,還是提供了一些參考建議。

        找AI做“科普搭子”,通義千問學會擺爛了

        除了挑選水果之外,當觸及知識盲區(qū)時,AI能夠幫我們識別相關的內容嗎?

        比如,在地鐵上遇到一些正反顛倒的外語文字:

        1、GPT-4o

        這張印有日文的圖像,GPT-4o壓根沒有識別出文字顛倒了,開始編纂上面的日語是“厲害的、驚人的”的意思。

        當我把圖片翻轉180度變正之后,它才回答出日語是“貓咪”的意思。

        2、Gemini

        Gemini雖然對文字的識別還不夠準確,但也能夠通過圖片猜測出這是一個黑色毛絨玩具的一部分。

        遺憾的是,通義千問和元寶都沒有辦法識別出這些文字的意思,通義千問甚至開始說自己還沒有識別文字的能力,直接擺爛。

        可見,現階段的AI識別任意字符,依舊需要我們提供正確的文字樣式,經過顛倒、翻轉或鏡像的圖片,AI都沒法辨認。

        找AI做“看展搭子”,GPT-4o和元寶略勝一籌

        如果和AI進行一場“看展式社交”,一起逛博物館,是不是能學到新知識?

        我們讓AI“品鑒”了一下中國古代藝術《千里江山圖》局部圖,并問他們“這幅畫是什么意思”。

        GPT-4o和元寶在兩次提問后,能夠知道這是《千里江山圖》的局部圖,并詳細闡述了這幅山水畫的意境。而Gemini和通義千問都無法認出具體是哪一副傳統(tǒng)山水畫,GPT-4o和騰訊元寶略勝一籌。

        這么看來,邀請GPT-4o和元寶做博物館搭子,會是不錯的選擇。

        左邊為GPT-4o回答;右邊為Gemini1.5pro

        找AI做“吃瓜搭子”,玩梗能力堪憂

        挑水果、逛博物館、識別陌生文字,只是AI圖像識別中的部分用例。接下來,我們來看看AI能不能和我一起沖浪第一線吃瓜。

        比如,最近火爆AI視頻生成領域的梗圖,讓Runway轉頭就更新了Gen3模型,我們來看看AI會如何解讀:

        1、GPT-4o

        GPT-4o真的就把圖片原原本本翻譯了一遍,并沒有完全指出“由于Luma AI視頻生成工具的火爆,人們早把Runway丟在一邊了”等類似的內涵。

        2、Gemini

        除了最后總結上提到“人們對Sora的期待”有錯誤之外,Gemini至少可以識別出90%的梗圖內在含義,還能看懂Sora代表的小孩臉上有不知所措的表情。

        3、通義千問

        可能是因為這張圖有骷髏,所以通義千問讓我換張圖試一試,和AI一同吃瓜也要注意內容紅線,通義的安全意識遠高于其他模型。

        4、騰訊元寶:

        元寶至少看懂了這張圖的內容,但并沒有指出其中的玩味含義,回答還有些一本正經。

        總的來說,Gemini看梗圖的能力略強于其他幾家,起碼了解這是一張meme圖,也能明白其中的幽默意味,但沒有一家AI能和我一起調侃“6月更新的AI視頻工具也太多了”,你們好歹都是大語言模型啊。

        找AI做“娛樂搭子”,眼神大都比我好

        面對互聯(lián)網上層出不窮的娛樂向測試,我們接下去看看AI會如何應對,比如一些經典的視覺錯覺圖。

        請各位玩家先判斷一下,A和B色塊顏色相同嗎?

        1、GPT-4o

        GPT-4o不僅說出了正確答案,還告訴我這是一個知名的視覺錯覺實驗,并附上了具體的識別方法。

        當我們進一步讓它證明并畫出A和B是相同色塊,它還給出了取色圖像和一段Python代碼,幫助證明A和B是相同的顏色。

        2、Gemini

        Gemini也沒有讓人失望,除了準確說出A和B顏色相同之外,并解釋了為什么大多數人會產生這種視覺錯覺。

        不過,當我們要求它能否畫出來證明A和B顏色一致時,它表示需要用到圖像編輯工具,沒有辦法直接輸出一張新圖片。

        換言之,作為一個多模態(tài)模型,Gemini1.5pro目前還不能直接提供具體的圖片示例,不具備多模態(tài)輸出能力。

        3、通義千問

        通義千問同樣識別出兩個色塊一致,還附上了更多識別方法和參考鏈接以證明色塊的一致性。

        值得一提的是,我們也要求通義千問能夠畫出來證明A和B是一樣的色塊,通義真的這么做了,但有些勉強:

        我們壓根無法分辨它一本正經強調“這兩個色塊一致”,究竟是自己出現的“大模型幻覺”還是真的受屏幕影響導致畫面顏色不同。

        可見,通義千問在理解多模態(tài)輸入和輸出方面都做了一定的努力,但圖像輸出的準確性需要進一步進行信息校準核驗。

        4、騰訊元寶

        騰訊元寶的回答,讓我看到了做視覺測驗的我本人。

        距離和AI一起“看”世界,還有多遠?

        除了對話溝通能力,這些能夠讀圖的AI,似乎還有了“睜眼看世界”的能力。

        無論是生活場景下挑水果,還是吃瓜讀梗,GPT-4o、Gemini、通義和元寶都展現出了一定的圖像分析能力,甚至在某些場景下,不僅能處理復雜的多模態(tài)輸入輸出,理解能力又更上一層。

        OpenAI Sora及DALL·E團隊負責人Aditya Ramesh最近提到,現階段AI視覺的基礎是對壓縮圖像的學習。模型會從原始圖像中提取關鍵信息,并以一種壓縮的形式來表示這些信息。

        這個過程可以幫助模型識別圖像中最重要的特征,忽略那些不那么重要的細節(jié),從而提高識別圖像中物體和場景的能力。他認為,能夠模擬任何想要的內容將是未來的一個重要里程碑。

        雖然AI在視覺理解方面已經取得了很大進展,但現有的多模態(tài)模型在識別圖像上還不能做到百分百的精確。

        正如我們讓AI不斷挑戰(zhàn)圖靈測試,或許在視覺識別領域也能看到它實現新的突破。至少目前,很多人類看不懂的知識,正在被AI以前所未有的方式重新解讀。

        當然,這只是選AI做搭子的部分實例,各位玩家會和AI一起做什么?歡迎在評論區(qū)分享你的故事~