国产一级一区二区_segui88久久综合9999_97久久夜色精品国产_欧美色网一区二区

掃一掃
關(guān)注微信公眾號(hào)

企業(yè)對(duì)AI模型的判斷:開(kāi)源為何會(huì)勝出
2024-10-29   企業(yè)網(wǎng)D1Net

企業(yè)界對(duì)開(kāi)源大型語(yǔ)言模型(LLM)的使用迅速增長(zhǎng),越來(lái)越多的公司在AI領(lǐng)域獲得了更多專(zhuān)業(yè)知識(shí),尋求更大的控制力、定制能力和成本效率。

盡管早期主要是OpenAI的GPT-4等封閉模型占據(jù)主導(dǎo)地位,但多位企業(yè)領(lǐng)導(dǎo)人在接受記者采訪時(shí)表示,開(kāi)源模型的質(zhì)量已經(jīng)縮小了差距,并且在企業(yè)中的增長(zhǎng)速度至少與封閉模型持平。

這與今年早些時(shí)候的情況有所不同。當(dāng)時(shí)我曾報(bào)道,盡管開(kāi)源的前景毋庸置疑,但它的普及速度相對(duì)較慢,然而Meta向記者表示,其公開(kāi)發(fā)布的模型下載量已經(jīng)超過(guò)4億次,速度是去年的10倍,使用量在2024年5月至7月間翻了一番,這一采用熱潮反映出多種因素的共同作用——從技術(shù)上的平衡到信任方面的考量——正在推動(dòng)先進(jìn)企業(yè)向開(kāi)源替代方案靠攏。

Groq的CEO Jonathan Ross直言道:“開(kāi)源始終是贏家。” Groq是一家提供專(zhuān)用AI處理基礎(chǔ)設(shè)施的公司,客戶(hù)大量使用開(kāi)源模型。他補(bǔ)充說(shuō):“大多數(shù)人都非常擔(dān)心被廠商鎖定。”

即便是投入40億美元于封閉源廠商Anthropic的AWS——這是AWS史上最大的投資——也承認(rèn)了這一趨勢(shì)。AWS AI和基礎(chǔ)設(shè)施副總裁Baskar Sridharan表示:“我們確實(shí)在過(guò)去幾個(gè)月里看到了對(duì)公共模型的更大需求。”AWS通過(guò)其Bedrock服務(wù)提供盡可能多的開(kāi)放源和封閉源模型,以滿(mǎn)足客戶(hù)的不同需求。

大型應(yīng)用公司平臺(tái)轉(zhuǎn)型加速了開(kāi)源模型的普及

在初創(chuàng)公司或個(gè)人開(kāi)發(fā)者中,OpenAI等封閉源模型依然領(lǐng)先,但在企業(yè)領(lǐng)域,情況卻大不相同。不幸的是,市場(chǎng)上沒(méi)有第三方渠道追蹤企業(yè)級(jí)開(kāi)源和封閉LLM的競(jìng)爭(zhēng)情況,部分原因在于這一信息難以公開(kāi)。API公司Kong在7月對(duì)700多位用戶(hù)進(jìn)行了調(diào)查,但由于受訪者中包括了較小的公司,因此傾向于選擇操作簡(jiǎn)單的OpenAI(這一報(bào)告還包含其他AI服務(wù)如Bedrock,但Bedrock并非LLM,而是一個(gè)提供多種LLM(包括開(kāi)源模型)的服務(wù)——類(lèi)似于“混合”的對(duì)比)。

但從實(shí)證角度來(lái)看,證據(jù)正在積累。例如,各大商業(yè)應(yīng)用提供商都在積極整合開(kāi)源LLM,徹底改變了企業(yè)應(yīng)用這些模型的方式。上個(gè)月,Salesforce引領(lǐng)了最新一波浪潮,推出了Agentforce,承認(rèn)其客戶(hù)關(guān)系管理客戶(hù)需要更靈活的AI選項(xiàng),該平臺(tái)允許企業(yè)在Salesforce應(yīng)用中接入任意LLM,使開(kāi)源模型的使用便捷度媲美封閉模型。Salesforce旗下的Slack也迅速跟進(jìn)。

Oracle也在上個(gè)月擴(kuò)展了其企業(yè)套件中對(duì)最新Llama模型的支持,包括ERP、人力資源和供應(yīng)鏈等大型企業(yè)應(yīng)用程序,另一位商業(yè)應(yīng)用巨頭SAP宣布通過(guò)其Joule AI助手提供全面的開(kāi)源LLM支持,而ServiceNow在客戶(hù)服務(wù)和IT支持等工作流自動(dòng)化領(lǐng)域同時(shí)支持開(kāi)源和封閉LLM集成。

Oracle的AI和數(shù)據(jù)管理服務(wù)執(zhí)行副總裁Greg Pavlik表示:“我認(rèn)為開(kāi)源模型最終會(huì)勝出。”他指出,尤其是在垂直領(lǐng)域中,企業(yè)客戶(hù)可以修改模型并進(jìn)行實(shí)驗(yàn),這種能力結(jié)合成本優(yōu)勢(shì)非常具有吸引力。

復(fù)雜的“開(kāi)源”模型生態(tài)系統(tǒng)

雖然Meta的Llama已經(jīng)嶄露頭角,但開(kāi)源LLM生態(tài)系統(tǒng)演變?yōu)橐粋€(gè)細(xì)致的市場(chǎng),不同的開(kāi)源方式各有特點(diǎn)。例如,Meta的Llama在市場(chǎng)上已有超過(guò)65000個(gè)派生模型。企業(yè)IT領(lǐng)導(dǎo)者需要在完全開(kāi)放的權(quán)重和訓(xùn)練數(shù)據(jù)以及帶有商業(yè)許可的混合模型之間進(jìn)行權(quán)衡和選擇。

例如,Mistral AI通過(guò)提供高性能模型并提供靈活的許可條款,成功吸引了需要不同支持級(jí)別和定制化的企業(yè),而Cohere則采用了另一種模式,提供開(kāi)源模型權(quán)重,但需支付許可費(fèi)——這種模式因其透明性和商業(yè)支持的平衡性而受到部分企業(yè)的青睞。

這種開(kāi)源模型生態(tài)系統(tǒng)的復(fù)雜性已成為成熟企業(yè)的優(yōu)勢(shì)。企業(yè)可以選擇符合其具體需求的模型——無(wú)論是需要對(duì)模型權(quán)重進(jìn)行全面控制以實(shí)現(xiàn)高度定制,還是支持開(kāi)源權(quán)重以便快速部署。領(lǐng)導(dǎo)者表示,檢查和修改這些模型的能力提供了完全封閉替代方案無(wú)法實(shí)現(xiàn)的控制水平。此外,使用開(kāi)源模型往往需要一支技術(shù)嫻熟的團(tuán)隊(duì)來(lái)對(duì)模型進(jìn)行微調(diào)和高效管理,這也是擁有更多資源的企業(yè)在使用開(kāi)源模型時(shí)具備優(yōu)勢(shì)的另一個(gè)原因。

Meta對(duì)Llama的快速開(kāi)發(fā)展示了企業(yè)為何青睞開(kāi)源模型的靈活性。AT&T使用基于Llama的模型進(jìn)行客戶(hù)服務(wù)自動(dòng)化,DoorDash用于幫助解答其軟件工程師的問(wèn)題,而Spotify則用于內(nèi)容推薦。高盛在受高度監(jiān)管的金融服務(wù)應(yīng)用中部署了這些模型。其他Llama用戶(hù)還包括Niantic、野村、Shopify、Zoom、Accenture、Infosys、KPMG、富國(guó)銀行、IBM以及格萊美獎(jiǎng)。

Meta積極培養(yǎng)渠道合作伙伴。目前所有主要的云提供商都支持Llama模型。Meta產(chǎn)品副總裁Ragavan Srinivasan表示:“企業(yè)客戶(hù)對(duì)Llama的興趣和部署量在急劇增長(zhǎng),特別是在Llama 3.1和3.2發(fā)布之后。尤其是大型的405B模型獲得了非常強(qiáng)勁的關(guān)注,因?yàn)槌墒斓钠髽I(yè)客戶(hù)看到了能夠在多種模型之間切換的價(jià)值。”他提到,客戶(hù)可以使用蒸餾服務(wù)從Llama 405B創(chuàng)建衍生模型,以根據(jù)自己的數(shù)據(jù)進(jìn)行微調(diào)。蒸餾是一種在保留核心能力的同時(shí)創(chuàng)建更小、更快模型的過(guò)程。

事實(shí)上,Meta憑借其其他模型組合很好地覆蓋了市場(chǎng),包括Llama 90B模型,可用于大多數(shù)提示任務(wù),而1B和3B模型則小到可以在設(shè)備上使用。今天,Meta還發(fā)布了這些小型模型的“量化”版本。量化是一種使模型更小的過(guò)程,從而減少功耗并加快處理速度。此次最新發(fā)布的版本在訓(xùn)練過(guò)程中進(jìn)行了量化,使其比其他業(yè)內(nèi)的量化替代品更高效——在生成標(biāo)記方面速度提升四倍,功耗減少到原來(lái)的四分之一。

技術(shù)能力推動(dòng)復(fù)雜部署

開(kāi)源和封閉模型之間的技術(shù)差距實(shí)際上已消失,但各自的優(yōu)勢(shì)仍然明顯,成熟的企業(yè)正在戰(zhàn)略性地利用這些優(yōu)勢(shì),這帶來(lái)了更細(xì)致的部署方式,企業(yè)根據(jù)特定任務(wù)需求組合不同模型。

Salesforce的AI執(zhí)行副總裁Jayesh Govindarajan解釋道:“大型的專(zhuān)有模型在高級(jí)推理和分解模糊任務(wù)方面非常出色。”但對(duì)于那些推理要求較低、以語(yǔ)言創(chuàng)作為主的任務(wù),例如撰寫(xiě)電子郵件、創(chuàng)建營(yíng)銷(xiāo)內(nèi)容、公司研究,“開(kāi)源模型已經(jīng)達(dá)到同等水平,甚至在某些方面更好。”他還指出,即使是高推理任務(wù)也可以分解為多個(gè)子任務(wù),其中很多最終成為以語(yǔ)言為主的任務(wù),而開(kāi)源模型在這方面表現(xiàn)出色。

Intuit,這家擁有會(huì)計(jì)軟件QuickBooks和稅務(wù)軟件TurboTax的公司,在幾年前就開(kāi)始了其LLM之旅,成為財(cái)富500強(qiáng)公司中非常早的行動(dòng)者。其實(shí)施過(guò)程展示了成熟的應(yīng)用策略。對(duì)于QuickBooks中的交易分類(lèi)等面向客戶(hù)的應(yīng)用,Intuit發(fā)現(xiàn)其基于Llama 3微調(diào)的LLM比封閉替代品表現(xiàn)出更高的準(zhǔn)確性。Intuit的首席數(shù)據(jù)官Ashok Srivastava解釋說(shuō):“我們發(fā)現(xiàn)可以使用一些開(kāi)源模型,將其調(diào)整到較小規(guī)模,并用于特定領(lǐng)域的需求。”這些模型“體積小得多,延遲低且精度不減,甚至更高。”

銀行業(yè)也展示了從封閉LLM向開(kāi)源LLM的遷移。服務(wù)于澳大利亞和新西蘭的ANZ銀行最初使用OpenAI進(jìn)行快速實(shí)驗(yàn),但在轉(zhuǎn)向?qū)嶋H應(yīng)用部署時(shí),放棄了OpenAI,改為基于Llama模型的微調(diào)模型,以適應(yīng)特定的金融應(yīng)用場(chǎng)景,并滿(mǎn)足對(duì)穩(wěn)定性和數(shù)據(jù)主權(quán)的需求,該銀行發(fā)布了一篇博客,詳細(xì)介紹了這一過(guò)程,強(qiáng)調(diào)了Llama的多版本提供的靈活性、靈活的托管選項(xiàng)、版本控制和便捷的回滾功能。據(jù)我們了解,美國(guó)排名前三的一家銀行最近也放棄了OpenAI,轉(zhuǎn)向開(kāi)源解決方案。

正是這種想要從OpenAI轉(zhuǎn)向開(kāi)源的需求促使一些公司推出了“切換工具包”,例如PostgresML的產(chǎn)品,使企業(yè)能夠在幾分鐘內(nèi)從OpenAI無(wú)縫轉(zhuǎn)向開(kāi)源。

基礎(chǔ)設(shè)施的演變消除了部署障礙

開(kāi)源LLM的部署路徑已大大簡(jiǎn)化。Meta的Srinivasan概述了企業(yè)采用的三條主要路徑:

1. 云合作伙伴集成:主要的云提供商現(xiàn)在提供了簡(jiǎn)化的開(kāi)源模型部署方案,具有內(nèi)置的安全性和擴(kuò)展功能。

2. 自定義技術(shù)棧開(kāi)發(fā):具備技術(shù)能力的公司可以在本地或云端構(gòu)建自己的基礎(chǔ)設(shè)施,保持對(duì)AI技術(shù)棧的完全控制——Meta也通過(guò)所謂的Llama Stack提供幫助。

3. API訪問(wèn):對(duì)于追求簡(jiǎn)便的公司,現(xiàn)在多家供應(yīng)商提供開(kāi)源模型的API訪問(wèn),使其使用方式如同封閉模型一樣簡(jiǎn)單。Groq、Fireworks和Hugging Face就是例子,它們都能提供推理API、微調(diào)API以及所有類(lèi)似于專(zhuān)有供應(yīng)商的功能。

安全性和控制優(yōu)勢(shì)顯現(xiàn)

開(kāi)源方法在模型安全性和控制方面也意外地成為了領(lǐng)先者,特別適合那些需要對(duì)其AI系統(tǒng)進(jìn)行嚴(yán)格監(jiān)管的企業(yè)。Groq的Ross指出:“Meta在安全性方面非常謹(jǐn)慎,因?yàn)樗麄冏屇P兔嫦蚬姟?rdquo;他說(shuō),“他們實(shí)際上更為小心。相較之下,其他公司則不太透明,測(cè)試的難度更大。”

Meta對(duì)安全性的重視也反映在其組織結(jié)構(gòu)中。Ross表示,根據(jù)幾個(gè)月前與Meta的對(duì)話(huà),負(fù)責(zé)Llama安全性和合規(guī)性的團(tuán)隊(duì)相對(duì)于工程團(tuán)隊(duì)規(guī)模較大。(Meta發(fā)言人表示公司不對(duì)人員信息發(fā)表評(píng)論)。9月發(fā)布的Llama 3.2推出了Llama Guard Vision,進(jìn)一步豐富了7月發(fā)布的安全工具。這些工具可以:

• 檢測(cè)潛在問(wèn)題的文本和圖像輸入,防止其進(jìn)入模型

• 監(jiān)控并過(guò)濾輸出結(jié)果,以確保安全和合規(guī)

企業(yè)AI提供商在此基礎(chǔ)安全功能之上進(jìn)行了擴(kuò)展。例如,AWS的Bedrock服務(wù)允許企業(yè)在不同模型中建立一致的安全保護(hù)機(jī)制。AWS的Sridharan解釋道:“一旦客戶(hù)設(shè)置了這些政策,就可以在不同的公共模型之間切換,而無(wú)需重新編寫(xiě)應(yīng)用程序。”這種標(biāo)準(zhǔn)化對(duì)管理多個(gè)AI應(yīng)用程序的企業(yè)至關(guān)重要。

作為企業(yè)級(jí)云數(shù)據(jù)提供商的Databricks和Snowflake也認(rèn)可Llama的安全性:“Llama模型保持了‘最高的安全和可靠性標(biāo)準(zhǔn)’,”Neural Networks的CTO Hanlin Tang表示。

Intuit的實(shí)施展示了企業(yè)如何在安全措施上進(jìn)行額外的疊加,該公司的GenSRF(安全、風(fēng)險(xiǎn)和欺詐評(píng)估)系統(tǒng),作為其“GenOS”操作系統(tǒng)的一部分,監(jiān)控約100個(gè)信任和安全維度。Intuit的Srivastava解釋道:“我們有一個(gè)委員會(huì)負(fù)責(zé)審查L(zhǎng)LM,確保其標(biāo)準(zhǔn)與公司原則一致。”不過(guò),他指出,對(duì)開(kāi)源模型的審查與公司對(duì)封閉源模型的審查沒(méi)有不同。

通過(guò)合成訓(xùn)練解決數(shù)據(jù)來(lái)源問(wèn)題

關(guān)于LLM的一個(gè)關(guān)鍵問(wèn)題在于其訓(xùn)練數(shù)據(jù)的來(lái)源。出版商和其他創(chuàng)作者提起了許多訴訟,指控LLM公司侵犯版權(quán)。大多數(shù)LLM公司,無(wú)論是開(kāi)源還是封閉的,都沒(méi)有完全透明地披露其數(shù)據(jù)來(lái)源。由于大部分?jǐn)?shù)據(jù)來(lái)自公開(kāi)網(wǎng)絡(luò),因此可能存在高度的偏見(jiàn)并包含個(gè)人信息。

許多封閉源公司為用戶(hù)提供了“賠償保障”,即在使用其LLM時(shí)對(duì)法律風(fēng)險(xiǎn)或訴訟提供保護(hù)。開(kāi)源提供商通常不提供此類(lèi)賠償。不過(guò),最近關(guān)于數(shù)據(jù)來(lái)源的擔(dān)憂(yōu)似乎有所緩解。通過(guò)微調(diào)可以對(duì)模型進(jìn)行調(diào)整和過(guò)濾,Meta等公司還創(chuàng)建了更多對(duì)齊和其他安全措施以緩解這些擔(dān)憂(yōu)。數(shù)據(jù)來(lái)源問(wèn)題對(duì)于一些企業(yè),特別是那些受?chē)?yán)格監(jiān)管的行業(yè)(如銀行業(yè)或醫(yī)療保健)仍然是一個(gè)問(wèn)題,但一些專(zhuān)家建議,通過(guò)合成訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)來(lái)源問(wèn)題可能很快會(huì)得到解決。

Salesforce的Govindarajan解釋道:“想象一下,如果我可以采取公共的專(zhuān)有數(shù)據(jù),通過(guò)一些算法方法進(jìn)行修改,以創(chuàng)建反映真實(shí)世界的合成數(shù)據(jù),那么我其實(shí)不需要訪問(wèn)所有那種互聯(lián)網(wǎng)數(shù)據(jù)……數(shù)據(jù)來(lái)源問(wèn)題就消失了。”

Meta已接受這一趨勢(shì),并在Llama 3.2的1B和3B模型中加入了合成數(shù)據(jù)訓(xùn)練。

區(qū)域模式揭示了由成本驅(qū)動(dòng)的采用趨勢(shì)

開(kāi)源LLM的采用顯示出明顯的區(qū)域和行業(yè)特定模式。Oracle的Pavlik觀察到:“在北美,封閉源模型在生產(chǎn)中的使用量肯定超過(guò)了開(kāi)源模型。”他接著表示:“而在拉丁美洲,我們看到Llama模型在生產(chǎn)場(chǎng)景中的使用量大幅上升,這幾乎是相反的。”

導(dǎo)致這些地區(qū)差異的原因尚不明確,但可能反映出在成本和基礎(chǔ)設(shè)施方面的不同優(yōu)先級(jí)。Pavlik描述了一個(gè)全球范圍內(nèi)發(fā)生的情景:“一些企業(yè)用戶(hù)開(kāi)始使用GPT-4進(jìn)行一些原型開(kāi)發(fā)……收到第一份賬單后,他們會(huì)想,‘天啊,太貴了!’這比他們預(yù)期的要昂貴得多,于是他們開(kāi)始尋找替代方案。”

市場(chǎng)動(dòng)態(tài)指向商業(yè)化趨勢(shì)

LLM部署的經(jīng)濟(jì)性正迅速向開(kāi)源模型傾斜。風(fēng)投家Marc Andreessen指出:“過(guò)去一年里,生成LLM輸出的每個(gè)token的成本已經(jīng)下降了100倍。”他質(zhì)疑封閉源模型提供商是否能保持盈利,這樣的“價(jià)格戰(zhàn)”對(duì)那些為封閉模型開(kāi)發(fā)籌集數(shù)十億美元的公司構(gòu)成了壓力,而那些通過(guò)核心業(yè)務(wù)支持開(kāi)源開(kāi)發(fā)的組織則更具優(yōu)勢(shì)。

Intuit的Srivastava表示:“我們知道這些模型的成本將趨近于零。”他警告稱(chēng),過(guò)度投入這些模型的公司可能很快會(huì)面臨后果,這種趨勢(shì)特別有利于Meta,因?yàn)镸eta可以提供免費(fèi)模型,同時(shí)從其平臺(tái)和產(chǎn)品的應(yīng)用中獲取價(jià)值。

Groq的Ross認(rèn)為,LLM競(jìng)爭(zhēng)的一個(gè)很好的比喻是操作系統(tǒng)之爭(zhēng)。“Linux可能是LLM的最佳類(lèi)比。”雖然Windows主導(dǎo)了消費(fèi)級(jí)計(jì)算,但開(kāi)源的Linux卻在企業(yè)系統(tǒng)和工業(yè)計(jì)算中占據(jù)主導(dǎo)地位。Intuit的Srivastava也看到類(lèi)似的模式:“我們一次又一次地看到開(kāi)源操作系統(tǒng)與非開(kāi)源操作系統(tǒng)的競(jìng)爭(zhēng)。瀏覽器之爭(zhēng)也是如此,”當(dāng)時(shí)開(kāi)源的Chromium瀏覽器擊敗了封閉源的模型。

SAP全球AI主管Walter Sun也贊同這一觀點(diǎn):“我認(rèn)為在競(jìng)爭(zhēng)中,開(kāi)源的大型語(yǔ)言模型與封閉源模型一樣有效,這給予了人們更多的靈活性。”他補(bǔ)充道:“如果你有特定的需求和應(yīng)用場(chǎng)景……開(kāi)源是實(shí)現(xiàn)的最佳途徑。”

Groq的Ross和其他一些觀察家認(rèn)為,Meta可能有能力投入1000億美元來(lái)訓(xùn)練其Llama模型,這一數(shù)額超過(guò)了所有專(zhuān)有模型提供商的總和。他表示,Meta有動(dòng)力這樣做,因?yàn)樗荓LM的最大受益者之一,需要它們來(lái)提升其核心業(yè)務(wù)的智能水平,為Instagram、Facebook和WhatsApp上的用戶(hù)提供AI服務(wù)。Meta表示,其AI每周接觸1.85億活躍用戶(hù),這樣的規(guī)模幾乎無(wú)出其右。

這表明開(kāi)源LLM不會(huì)面臨其他開(kāi)源項(xiàng)目中經(jīng)常出現(xiàn)的可持續(xù)性挑戰(zhàn)。Meta CEO Mark Zuckerberg在7月的開(kāi)源AI支持信中宣布:“從明年開(kāi)始,我們預(yù)計(jì)未來(lái)的Llama模型將成為行業(yè)中最先進(jìn)的模型。”他說(shuō),“但即便在此之前,Llama已經(jīng)在開(kāi)放性、可修改性和成本效率方面處于領(lǐng)先地位。”

專(zhuān)用模型豐富了生態(tài)系統(tǒng)

專(zhuān)用行業(yè)解決方案的出現(xiàn)進(jìn)一步加強(qiáng)了開(kāi)源LLM生態(tài)系統(tǒng)。例如,IBM推出了其Granite模型,完全開(kāi)源,并專(zhuān)為金融和法律應(yīng)用訓(xùn)練而成。IBM的GenAI全球管理合伙人Matt Candy表示:“Granite模型是我們的‘殺手級(jí)應(yīng)用’。”他說(shuō),“這些是唯一能完全解釋訓(xùn)練和調(diào)優(yōu)數(shù)據(jù)集來(lái)源的模型。如果你身處一個(gè)受監(jiān)管的行業(yè),并將你的企業(yè)數(shù)據(jù)與該模型結(jié)合使用,你需要非常清楚其內(nèi)容。”

IBM的業(yè)務(wù)受益于開(kāi)源,包括將其Red Hat Enterprise Linux操作系統(tǒng)打包進(jìn)混合云平臺(tái)中,包含Granite模型的使用以及InstructLab——一種微調(diào)和增強(qiáng)LLM的方法。其AI業(yè)務(wù)已初見(jiàn)成效。Candy表示:“看看股價(jià)吧——歷史新高。”

信任日益傾向于開(kāi)源

信任正在轉(zhuǎn)向企業(yè)可以擁有和控制的模型。Inflection AI的首席運(yùn)營(yíng)官Ted Shelton解釋了封閉模型的根本挑戰(zhàn)。Inflection AI是一家為企業(yè)提供許可源代碼和完整應(yīng)用棧的公司,作為封閉和開(kāi)源模型的替代方案。他指出:“無(wú)論是OpenAI、Anthropic、Gemini還是Microsoft,它們都愿意為企業(yè)客戶(hù)提供所謂的私有計(jì)算環(huán)境,然而,這種計(jì)算環(huán)境仍由模型提供商的員工管理,客戶(hù)無(wú)法訪問(wèn)模型本身。”這是因?yàn)長(zhǎng)LM的所有者希望保護(hù)源代碼、模型權(quán)重和超參數(shù)訓(xùn)練細(xì)節(jié)等專(zhuān)有元素,而這些信息對(duì)于直接訪問(wèn)模型的客戶(hù)無(wú)法隱藏。由于大量代碼是用Python編寫(xiě)的,而不是編譯語(yǔ)言,因此它們依然暴露在外。

這種情況對(duì)于嚴(yán)肅對(duì)待AI部署的企業(yè)而言不可接受。Shelton指出:“一旦你允許‘OpenAI的員工將真正控制和管理模型,他們將接觸到公司的所有數(shù)據(jù)’,這就成為了數(shù)據(jù)泄漏的一個(gè)風(fēng)險(xiǎn)點(diǎn)。”他補(bǔ)充道,“那些真正關(guān)心數(shù)據(jù)安全的公司會(huì)說(shuō),‘不,我們不會(huì)這么做。我們會(huì)實(shí)際運(yùn)行自己的模型,而唯一的選擇就是開(kāi)源。’”

未來(lái)的方向

雖然封閉源模型在較簡(jiǎn)單的用例中仍然保持市場(chǎng)領(lǐng)先地位,但成熟的企業(yè)越來(lái)越意識(shí)到未來(lái)的競(jìng)爭(zhēng)力依賴(lài)于對(duì)其AI基礎(chǔ)設(shè)施的更多控制。正如Salesforce的Govindarajan所觀察到的:“一旦你看到價(jià)值,并開(kāi)始將其擴(kuò)展到所有用戶(hù)和客戶(hù)身上,就會(huì)開(kāi)始提出一些有趣的問(wèn)題。是否可以提高效率?是否可以實(shí)現(xiàn)成本效率?是否可以提高速度?”

這些問(wèn)題的答案正促使企業(yè)轉(zhuǎn)向開(kāi)源模型,即便這一轉(zhuǎn)變并非總是那么順利。Inflection AI的Shelton說(shuō):“我確實(shí)認(rèn)為會(huì)有一大批公司努力嘗試讓開(kāi)源發(fā)揮作用,因?yàn)樗麄儎e無(wú)選擇。你要么屈服,接受幾家大型科技公司控制GenAI,要么接受Mark Zuckerberg拋出的救命稻草,然后說(shuō):‘好吧,讓我們一起努力吧。’”

熱詞搜索:AI 技術(shù) 安全

上一篇:達(dá)美航空因大規(guī)模IT中斷導(dǎo)致數(shù)千張機(jī)票被取消而起訴CrowdStrike
下一篇:最后一頁(yè)

分享到: 收藏
主站蜘蛛池模板: 香格里拉县| 喜德县| 九龙城区| 永寿县| 乌拉特后旗| 武胜县| 台北县| 沿河| 黑龙江省| 同仁县| 浦城县| 冕宁县| 民丰县| 井冈山市| 丘北县| 普兰店市| 瑞安市| 浙江省| 庄河市| 鄢陵县| 从化市| 孝昌县| 乌拉特后旗| 汉源县| 辽阳县| 宣化县| 朝阳区| 荔浦县| 加查县| 莎车县| 茌平县| 秦安县| 鞍山市| 金堂县| 黔南| 镶黄旗| 宁安市| 杭州市| 平泉县| 松江区| 丹东市|