新規(guī)拉開(kāi)中國(guó)生成式AI“百團(tuán)大戰(zhàn)”序幕?
ChatGPT在全球范圍掀起的AI熱潮正在引發(fā)越來(lái)越多的討論,AI該如何管理?AI該如何發(fā)展?一系列問(wèn)題都成為人們熱議的焦點(diǎn)。此前,馬斯克等海外名人就在網(wǎng)絡(luò)上呼吁OpenAI暫停ChatGPT的模型訓(xùn)練和迭代,等待企業(yè)與政府討論出一套行之有效的管理方法后再繼續(xù)。
顯然,此舉遭到了OpenAI的反對(duì),不過(guò)OpenAI也認(rèn)可馬斯克的部分說(shuō)法:“AI確實(shí)需要管控”,在一次訪(fǎng)談中,OpenAI的創(chuàng)始人之一更是直言自己有時(shí)候會(huì)對(duì)ChatGPT感到恐懼,AI確實(shí)有可能對(duì)人類(lèi)造成威脅。
當(dāng)我們驚嘆于ChatGPT的強(qiáng)大時(shí),確實(shí)不該忘記AI技術(shù)發(fā)展所帶來(lái)的“可能威脅”。4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室發(fā)布了關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》的公開(kāi)征求意見(jiàn)通知,國(guó)內(nèi)有關(guān)生成式人工智能的第一個(gè)管理?xiàng)l例來(lái)了。
以下為《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》的原文。
第一條 為促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律、行政法規(guī),制定本辦法。
第二條 研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國(guó)境內(nèi)公眾提供服務(wù)的,適用本辦法。本辦法所稱(chēng)生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。
第三條 國(guó)家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國(guó)際合作,鼓勵(lì)優(yōu)先采用安全可信的軟件、工具、計(jì)算和數(shù)據(jù)資源。
第四條 提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗,符合以下要求:(一)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會(huì)主義核心價(jià)值觀,不得含有顛覆國(guó)家政權(quán)、推翻社會(huì)主義制度,煽動(dòng)分裂國(guó)家、破壞國(guó)家統(tǒng)一,宣揚(yáng)恐怖主義、極端主義,宣揚(yáng)民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟(jì)秩序和社會(huì)秩序的內(nèi)容。(二)在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過(guò)程中,采取措施防止出現(xiàn)種族、民族、信仰、國(guó)別、地域、性別、年齡、職業(yè)等歧視。(三)尊重知識(shí)產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺(tái)等優(yōu)勢(shì)實(shí)施不公平競(jìng)爭(zhēng)。(四)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息。(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽(yù)權(quán)和個(gè)人隱私,侵犯知識(shí)產(chǎn)權(quán)。禁止非法獲取、披露、利用個(gè)人信息和隱私、商業(yè)秘密。
第五條 利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個(gè)人(以下稱(chēng)“提供者”),包括通過(guò)提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任;涉及個(gè)人信息的,承擔(dān)個(gè)人信息處理者的法定責(zé)任,履行個(gè)人信息保護(hù)義務(wù)。
第六條 利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)按照《具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)安全評(píng)估規(guī)定》向國(guó)家網(wǎng)信部門(mén)申報(bào)安全評(píng)估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷(xiāo)備案手續(xù)。
第七條 提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來(lái)源的合法性負(fù)責(zé)。用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),應(yīng)滿(mǎn)足以下要求:(一)符合《中華人民共和國(guó)網(wǎng)絡(luò)安全法》等法律法規(guī)的要求;(二)不含有侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容;(三)數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)征得個(gè)人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形;(四)能夠保證數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性;(五)國(guó)家網(wǎng)信部門(mén)關(guān)于生成式人工智能服務(wù)的其他監(jiān)管要求。
第八條 生成式人工智能產(chǎn)品研制中采用人工標(biāo)注時(shí),提供者應(yīng)當(dāng)制定符合本辦法要求,清晰、具體、可操作的標(biāo)注規(guī)則,對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),抽樣核驗(yàn)標(biāo)注內(nèi)容的正確性。
第九條 提供生成式人工智能服務(wù)應(yīng)當(dāng)按照《中華人民共和國(guó)網(wǎng)絡(luò)安全法》規(guī)定,要求用戶(hù)提供真實(shí)身份信息。
第十條 提供者應(yīng)當(dāng)明確并公開(kāi)其服務(wù)的適用人群、場(chǎng)合、用途,采取適當(dāng)措施防范用戶(hù)過(guò)分依賴(lài)或沉迷生成內(nèi)容。
第十一條 提供者在提供服務(wù)過(guò)程中,對(duì)用戶(hù)的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù)。不得非法留存能夠推斷出用戶(hù)身份的輸入信息,不得根據(jù)用戶(hù)輸入信息和使用情況進(jìn)行畫(huà)像,不得向他人提供用戶(hù)輸入信息。法律法規(guī)另有規(guī)定的,從其規(guī)定。
第十二條 提供者不得根據(jù)用戶(hù)的種族、國(guó)別、性別等進(jìn)行帶有歧視性的內(nèi)容生成。
第十三條 提供者應(yīng)當(dāng)建立用戶(hù)投訴接收處理機(jī)制,及時(shí)處置個(gè)人關(guān)于更正、刪除、屏蔽其個(gè)人信息的請(qǐng)求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權(quán)、名譽(yù)權(quán)、個(gè)人隱私、商業(yè)秘密,或者不符合本辦法要求時(shí),應(yīng)當(dāng)采取措施,停止生成,防止危害持續(xù)。
第十四條 提供者應(yīng)當(dāng)在生命周期內(nèi),提供安全、穩(wěn)健、持續(xù)的服務(wù),保障用戶(hù)正常使用。
第十五條 對(duì)于運(yùn)行中發(fā)現(xiàn)、用戶(hù)舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過(guò)濾等措施外,應(yīng)在3個(gè)月內(nèi)通過(guò)模型優(yōu)化訓(xùn)練等方式防止再次生成。
第十六條 提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識(shí)。
第十七條 提供者應(yīng)當(dāng)根據(jù)國(guó)家網(wǎng)信部門(mén)和有關(guān)主管部門(mén)的要求,提供可以影響用戶(hù)信任、選擇的必要信息,包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來(lái)源、規(guī)模、類(lèi)型、質(zhì)量等描述,人工標(biāo)注規(guī)則,人工標(biāo)注數(shù)據(jù)的規(guī)模和類(lèi)型,基礎(chǔ)算法和技術(shù)體系等。
第十八條 提供者應(yīng)當(dāng)指導(dǎo)用戶(hù)科學(xué)認(rèn)識(shí)和理性使用生成式人工智能生成的內(nèi)容,不利用生成內(nèi)容損害他人形象、名譽(yù)以及其他合法權(quán)益,不進(jìn)行商業(yè)炒作、不正當(dāng)營(yíng)銷(xiāo)。用戶(hù)發(fā)現(xiàn)生成內(nèi)容不符合本辦法要求時(shí),有權(quán)向網(wǎng)信部門(mén)或者有關(guān)主管部門(mén)舉報(bào)。
第十九條 提供者發(fā)現(xiàn)用戶(hù)利用生成式人工智能產(chǎn)品過(guò)程中違反法律法規(guī),違背商業(yè)道德、社會(huì)公德行為時(shí),包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評(píng)、制造垃圾郵件、編寫(xiě)惡意軟件,實(shí)施不正當(dāng)?shù)纳虡I(yè)營(yíng)銷(xiāo)等,應(yīng)當(dāng)暫;蛘呓K止服務(wù)。
第二十條 提供者違反本辦法規(guī)定的,由網(wǎng)信部門(mén)和有關(guān)主管部門(mén)按照《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律、行政法規(guī)的規(guī)定予以處罰。法律、行政法規(guī)沒(méi)有規(guī)定的,由網(wǎng)信部門(mén)和有關(guān)主管部門(mén)依據(jù)職責(zé)給予警告、通報(bào)批評(píng),責(zé)令限期改正;拒不改正或者情節(jié)嚴(yán)重的,責(zé)令暫;蛘呓K止其利用生成式人工智能提供服務(wù),并處一萬(wàn)元以上十萬(wàn)元以下罰款。構(gòu)成違反治安管理行為的,依法給予治安管理處罰;構(gòu)成犯罪的,依法追究刑事責(zé)任。
第二十一條 本辦法自2023年 月 日起實(shí)施。
從內(nèi)容來(lái)看,目前還只是一個(gè)初步的管理?xiàng)l例,對(duì)應(yīng)的處罰及法律依據(jù)來(lái)自此前發(fā)布的《中華人民共和國(guó)網(wǎng)絡(luò)安全法》《中華人民共和國(guó)數(shù)據(jù)安全法》《中華人民共和國(guó)個(gè)人信息保護(hù)法》等法律、行政法規(guī)。
看到管理?xiàng)l例的發(fā)布,不少網(wǎng)友都持肯定態(tài)度,AI的發(fā)展速度之迅猛超出了許多人的預(yù)料,并且已經(jīng)開(kāi)始對(duì)社會(huì)造成明顯的影響,確實(shí)需要對(duì)AI的發(fā)展與使用做出管理,避免對(duì)社會(huì)造成嚴(yán)重的危害。
不過(guò)也有網(wǎng)友認(rèn)為,這份“管理辦法”的一些條例,或許會(huì)讓中國(guó)企業(yè)在AI賽道的競(jìng)爭(zhēng)力減弱,因?yàn)槠渲械囊恍┮髮?duì)于目前的AI模型來(lái)說(shuō),是很難確保100%符合規(guī)定的,勢(shì)必讓企業(yè)在開(kāi)發(fā)過(guò)程中畏手畏腳。
現(xiàn)如今的AI,是否已經(jīng)到了必須管控的地步呢?
“撒謊”的AI
在前段時(shí)間,我先后體驗(yàn)和測(cè)試百度的文心一言與阿里巴巴的通義千問(wèn),作為國(guó)內(nèi)首批開(kāi)展內(nèi)測(cè)的對(duì)話(huà)式AI大模型,兩者在體驗(yàn)上雖然不如ChatGPT 4.0,不過(guò)也已經(jīng)具備一定的能力,從測(cè)試結(jié)果來(lái)看也是各有千秋。
但是,不管是文心一言還是通義千問(wèn),都無(wú)法避免在一些回答中“撒謊”,或者換個(gè)說(shuō)法,現(xiàn)階段的AI模型基本上避免不了根據(jù)已有信息生成虛構(gòu)內(nèi)容的問(wèn)題,即使是ChatGPT 4.0也是如此。
甚至從測(cè)試來(lái)看,ChatGPT的虛構(gòu)信息能力要遠(yuǎn)超文心一言等較低等級(jí)的AI對(duì)話(huà)模型,有興趣的朋友可以在知乎、B站等平臺(tái)搜索相關(guān)內(nèi)容,可以輕松查詢(xún)到不少ChatGPT一本正經(jīng)地胡說(shuō)八道的記錄。
在知乎上,用戶(hù)@何學(xué)源 就展示了ChatGPT是如何從0開(kāi)始編造自己的人生經(jīng)歷的,只需要給ChatGPT一定的關(guān)鍵詞,AI就會(huì)依據(jù)關(guān)鍵詞進(jìn)行信息編造,將一些完全杜撰或是不屬于本人成就的信息拼接到一起,生成一份回答。
圖源:知乎
從提供的ChatGPT對(duì)話(huà)截圖來(lái)看,AI不僅是生成了一系列編造的個(gè)人信息,在用戶(hù)要求提供相關(guān)的引用論文和文章時(shí),AI更是直接生成了一系列不存在的網(wǎng)絡(luò)鏈接與論文標(biāo)題,給用戶(hù)@何學(xué)源 帶來(lái)一些小小的AI震撼。
圖源:知乎
在我的測(cè)試中,文心一言也有類(lèi)似的問(wèn)題,比如我在詢(xún)問(wèn)它:“吃西瓜為什么不吐葡萄皮”時(shí),文心一言不僅將西瓜與葡萄的關(guān)系混淆,甚至將歸屬于葫蘆科的西瓜變成了“葡萄科”的,接下來(lái)的內(nèi)容都基于西瓜與葡萄是同一樣水果的邏輯進(jìn)行解答,以至于錯(cuò)漏百出。
只是相對(duì)于ChatGPT能夠以假亂真的“撒謊”行為來(lái)看,具有一定知識(shí)儲(chǔ)備的人可以輕松辨認(rèn)出文心一言回答中的問(wèn)題。但是,如果未來(lái)的文心一言經(jīng)過(guò)迭代進(jìn)步后達(dá)到ChatGPT的同等水平,人們又該如何分辨其中的問(wèn)題?
再進(jìn)一步,如果有人不懷好意地讓AI故意生成“謠言”,又該如何解決?實(shí)際上,互聯(lián)網(wǎng)上已經(jīng)出現(xiàn)了不少利用AI生成的圖片、文字來(lái)進(jìn)行詐騙、造謠的案例,前段時(shí)間就有人利用AI生成的模特圖片進(jìn)行網(wǎng)絡(luò)詐騙,甚至還成功騙到了不少人。
圖源:微博
在我看來(lái),對(duì)于AI的管控確實(shí)應(yīng)該提上日程,不僅僅是國(guó)內(nèi)在緊鑼密鼓地籌備相關(guān)法例法規(guī),美國(guó)也將在近期召集微軟、谷歌、OpenAI等一系列相關(guān)企業(yè),探討對(duì)AI的約束與規(guī)定,使其在使用和發(fā)展的過(guò)程中不會(huì)侵犯用戶(hù)的合法權(quán)益。
正是出于對(duì)AI的“撒謊”能力擔(dān)憂(yōu),《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》中就明確寫(xiě)明了“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息。”,同時(shí)也使該條例引起了許多網(wǎng)友的爭(zhēng)議。
但就目前的AI能力來(lái)說(shuō),想要滿(mǎn)足“真實(shí)準(zhǔn)確”的難度非常高,前面提到過(guò)ChatGPT都無(wú)法做到,國(guó)內(nèi)的AI則更是如此。嚴(yán)格來(lái)說(shuō),甚至連人類(lèi)自己其實(shí)也無(wú)法做到所有的回答、信息都真實(shí)準(zhǔn)確,我們的記憶會(huì)出錯(cuò),對(duì)知識(shí)點(diǎn)、新聞的理解會(huì)出錯(cuò),而且網(wǎng)絡(luò)上本就充斥著大量的虛假信息,以網(wǎng)絡(luò)數(shù)據(jù)訓(xùn)練出來(lái)的AI顯然不可避免地受其影響。
有網(wǎng)友甚至直言:“如果哪一天AI能夠完美規(guī)避錯(cuò)誤答案,生成100%準(zhǔn)確且真實(shí)的回答,那么人類(lèi)就該擔(dān)心自己了”,言下之意就是這種程度的AI已經(jīng)不再是普通的工具,而是具備獨(dú)立思維且擁有強(qiáng)大能力的“超級(jí)生命”。
當(dāng)然,目前的AI離我們?cè)O(shè)想中的“完美AI”還有著非常遙遠(yuǎn)的距離,但是對(duì)于AI“謊言”的管控確實(shí)該提上日程了。不過(guò),一些網(wǎng)友則認(rèn)為不應(yīng)該對(duì)AI的回答準(zhǔn)確率過(guò)早地做出嚴(yán)苛規(guī)定,否則以目前的錯(cuò)誤率來(lái)看,國(guó)內(nèi)的所有AI模型都可以停止對(duì)外運(yùn)營(yíng)。
實(shí)際上,這些網(wǎng)友的發(fā)言多少有點(diǎn)危言聳聽(tīng),對(duì)于阿里、百度等企業(yè)來(lái)說(shuō),處理錯(cuò)誤答案與內(nèi)容一直都是AI模型迭代中的重要工作,文心一言和通義千問(wèn)在問(wèn)答框中都有設(shè)置一鍵反饋按鈕,可以輕松對(duì)錯(cuò)誤回答進(jìn)行標(biāo)記,幫助完善AI模型。
而且,從條例的細(xì)則來(lái)看,對(duì)企業(yè)的要求是在3個(gè)月采取措施修正生成錯(cuò)誤回答的AI模型,確保同樣的錯(cuò)誤不會(huì)再次發(fā)生,實(shí)際上也是給了企業(yè)不少的處理時(shí)間。對(duì)于阿里和百度來(lái)說(shuō),如果3個(gè)月都無(wú)法處理一個(gè)明顯的錯(cuò)誤,那么或許該考慮一下是不是有工程師在“摸魚(yú)”了。
入局AI市場(chǎng)的門(mén)檻將更高
從條例本身來(lái)看,不少要求與規(guī)范其實(shí)都是AI企業(yè)已經(jīng)在做的事情,比如對(duì)錯(cuò)誤答案進(jìn)行優(yōu)化、限制非法內(nèi)容的輸出等。在文心一言和通義千問(wèn)上,對(duì)于違規(guī)或非法的問(wèn)題基本上都只會(huì)得到一個(gè)類(lèi)似的回復(fù):“我是一個(gè)人工智能語(yǔ)言模型,無(wú)法對(duì)xxxx進(jìn)行評(píng)價(jià)。我的目的是提供客觀和準(zhǔn)確的信息,幫助人們解決問(wèn)題”。
ChatGPT同樣如此,如果你使用的是通過(guò)官網(wǎng)API接口提供的服務(wù)及NEWBING,那么在涉及暴力、血腥、色情等方面的提問(wèn)時(shí),AI都會(huì)直接結(jié)束當(dāng)前話(huà)題并提示用戶(hù)應(yīng)該更換一個(gè)話(huà)題。
對(duì)于AI的規(guī)制其實(shí)一直都存著,公開(kāi)的AI平臺(tái)本就不是法外之地,不少企業(yè)也在探討對(duì)AI模型進(jìn)行修改,使其生成的圖片、視頻、音頻會(huì)自動(dòng)附加可用于快速識(shí)別的標(biāo)記,用以在網(wǎng)絡(luò)上對(duì)相關(guān)的AI生成內(nèi)容進(jìn)行快速標(biāo)識(shí)。
圖源:網(wǎng)絡(luò)
在我看來(lái),對(duì)AI行業(yè)最大的影響是切實(shí)地提高了入門(mén)門(mén)檻,隨著ChatGPT的大火,國(guó)內(nèi)開(kāi)始涌現(xiàn)出大量的AI企業(yè)和項(xiàng)目,除了阿里、百度、華為等科技巨頭外,還有不少的小企業(yè)和個(gè)人也在宣傳自己的項(xiàng)目,使得國(guó)內(nèi)的AI市場(chǎng)變得十分混亂。
此次條例實(shí)施后,對(duì)于AI企業(yè)的規(guī)模、反饋處理等能力都提出了更高的要求,對(duì)于目前的大廠來(lái)說(shuō),滿(mǎn)足以上要求并不困難,倒不如說(shuō)已經(jīng)在做了。實(shí)際上,更大的難點(diǎn)在于訓(xùn)練數(shù)據(jù)的獲取,目前的AI模型基本都是通過(guò)爬蟲(chóng)等手段,大量抓取網(wǎng)絡(luò)信息進(jìn)行訓(xùn)練迭代。
由此引發(fā)了不少網(wǎng)友的指責(zé),認(rèn)為AI企業(yè)在訓(xùn)練中使用了未經(jīng)過(guò)授權(quán)的用戶(hù)個(gè)人數(shù)據(jù),侵犯了個(gè)人隱私,意大利政府此前就公開(kāi)要求ChatGPT完善數(shù)據(jù)爬取方式,以確保不會(huì)擅自使用未經(jīng)授權(quán)的數(shù)據(jù)。
此外,三星此前也發(fā)布公告,要求嚴(yán)格管控企業(yè)內(nèi)部的ChatGPT使用情況,避免企業(yè)機(jī)密外泄,因?yàn)镃hatGPT將三星部分員工輸入的機(jī)密數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),上傳到了ChatGPT的數(shù)據(jù)庫(kù)中,導(dǎo)致其他用戶(hù)可以通過(guò)問(wèn)答的方式獲取這些數(shù)據(jù),直接影響到三星的企業(yè)安全。
為了確保公民信息及個(gè)人數(shù)據(jù)的安全,未來(lái)AI企業(yè)在隱私保護(hù)等方面需要花費(fèi)更多的成本來(lái)完善相關(guān)的保障系統(tǒng)。而且,對(duì)訓(xùn)練數(shù)據(jù)的嚴(yán)格規(guī)范也會(huì)直接影響到AI企業(yè)的訓(xùn)練成本,此前華為就聲稱(chēng),開(kāi)發(fā)和訓(xùn)練一個(gè)AI的成本高達(dá)1200萬(wàn)元美元,而且還不包括后續(xù)的硬件、數(shù)據(jù)投入。
隨著相關(guān)管理的規(guī)范化,AI訓(xùn)練的成本或許會(huì)將多數(shù)中小企業(yè)拒之門(mén)外,對(duì)于個(gè)人和中小企業(yè)來(lái)說(shuō),使用阿里等開(kāi)放式AI訓(xùn)練平臺(tái)將會(huì)是未來(lái)的主流。
來(lái)源:雷科技
原文標(biāo)題 : 新規(guī)拉開(kāi)中國(guó)生成式AI“百團(tuán)大戰(zhàn)”序幕?

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車(chē)電子技術(shù)在線(xiàn)大會(huì)
-
4月30日立即下載>> 【村田汽車(chē)】汽車(chē)E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線(xiàn)下巡回】2025年STM32峰會(huì)
-
即日-5.15立即報(bào)名>>> 【在線(xiàn)會(huì)議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書(shū)】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評(píng) >> 【評(píng)選啟動(dòng)】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評(píng)選
推薦專(zhuān)題
-
10 月之暗面,絕地反擊
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開(kāi)始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 “AI寒武紀(jì)”爆發(fā)至今,五類(lèi)新物種登上歷史舞臺(tái)
- 4 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 5 國(guó)產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來(lái)商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽(yáng)光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開(kāi)成長(zhǎng)空間
- 8 地平線(xiàn)自動(dòng)駕駛方案解讀
- 9 優(yōu)必選:營(yíng)收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?
- 10 封殺AI“照騙”,“淘寶們”終于不忍了?