露西(Lucie)是應該提高法國競爭力的開源生成AI,並沒有說服互聯網用戶。在許多錯誤之後,AI在社交網絡上遭受了嘲弄。該平台在周末在緊急情況下關閉。設計師認為通信錯誤。
幾天前,法國公司Linagora在線發布露西,生成的人工智能由國家科學研究中心設計。這個AI將自己作為AI的替代品chatgpt或者Google雙子座,旨在輸入“教育世界”在這一年。
呈現為第一個100%法國和開源模型“與歐洲價值觀保持一致”她是由國家資助通過法國的2030年投資計劃。
作為第一個測試階段的一部分,邀請互聯網用戶與Lucie聊天,就像他們與Chatgpt或其他聊天機器人交流一樣。在幾天的時間裡,反饋已經湧向社交網絡。他們一點都不好...
牛蛋和阿道夫·希特勒
露西很快做到了嘲弄的對象互聯網用戶。與人工智能互動的人意識到它積累了錯誤和荒謬。例如,露西有時無法進行基本計算或解釋她的結果。社交網絡上不乏示例。在測試人員提出的情況下,人工智能不會停止傳播虛假信息或犯歷史和事實錯誤。
美國人只需要掌握其星際之門項目。我們有露西(Lucie),這是反映我們大陸技術延遲的AI(謝謝您的虐待)https://t.co/ok8rf92npf pic.twitter.com/y06ob9ka9r
- imatthieu△(@imatthieu87)2025年1月25日
實際上,似乎露西(Lucie)具有兩年前推出的生成AI水平,例如基於GPT 3.0模型的第一個公共版本Chatgpt。在鏡子裡,露西(Lucie)為對話者提供了荒謬的答案。 AI確實可以從以下原則開始牛蛋存在…將它們與雞蛋混淆。簡而言之,結果遠非符合用戶要求,現在習慣於更複雜的AI模型,因為chatgpt 4o。
完全沒有隨意處理#lucie國家。
我想她會讓我成為我的周末😂#人工智慧 #Emmanuelmacron https://t.co/ouruer78fs pic.twitter.com/ZQC2QXQMXO- 隨時準備(@dainversecramer)2025年1月25日
更糟糕的是,事實證明露西沒有保障,應該避免溢出和其他辯論單詞。 Vincent Flibustier,社交媒體教練和北部諷刺報紙的創建者,設法使他像阿道夫·希特勒(Adolf Hitler)一樣講話。旨在用於教育世界的AI的可恥。
好的,這件事絕對是可恥的。
我沒有給他其他指示,這是對話的開始...
您可以想像您要去學校上的孩子嗎?https://t.co/hkllpjspco pic.twitter.com/9fotpdmh5y
- Vincent Flibustier👽(@vinceflibustier)2025年1月25日
對於創新專家Alain Goudey,專案“顯然還沒有準備好公眾開放”。 AI尚未通過通常的測試電池,該測試電池將其傳遞給模型以探測其容量。
過早的測試階段
面對露西的回答引起的強烈抗議,Linagora更喜歡停止費用。公司有暫停實驗階段48小時後,將測試延長一個月。公司表示“暫時接近露西.chat平台”最重要的是“學術研究項目旨在證明發展生成AI的數字將軍的能力”。
法國公司專門從事自由軟件指定露西是基於AI模型的仍然完全粗暴。目前,該模型沒有最少的保障來阻止不適當的行為。事實上,“因此,露西產生的答案不能保證,有些包含偏見和錯誤”。
Linagora說他很清楚“'推理'的能力(包括簡單的數學問題)或生成當前版本'露西''的代碼的能力不令人滿意”,但希望“然而,在開放原始項目的開放和共同建設的邏輯上,可以公開發布盧比。。該公司承認測試是然後“早產”什麼“指導階段只是部分”。
簡單的通信錯誤?
換句話說,該模型尚未完全形成。測試階段正確旨在允許“指導數據收集”完成露西的形成。公司補充說,與AI為Chatgpt不同,露西僅限於法國數據,這是開源的,對他施加了限制。儘管Linagora負責目標,但國家教育尚未參與該項目“與教育相關的用戶案例”。
“我們應該向用戶通報這些限制的平台,以免創建不必要的等待”Linagora承認,他說他被“熱情”。
公司懇求通信錯誤。對於Linagora,他是“很明顯,我們還沒有充分溝通和澄清露西在她目前的狀態以及到目前為止所做的工作的性質”。
為了回應某些互聯網用戶的嘲弄,拉納戈拉的研發工程(R&D)經理達米恩·萊納(DamienLainé)回憶說,露西還不是AI。從技術的角度來看,它仍然只是“接口允許與概率語言模型進行交互,該模型根據給定序列預測單詞,所有這些都在有限的上下文窗口中”。
事實上,露西不期望推理能力。他補充說,該項目與諸如Chatgpt之類的龐然大物區分開“有關用於培訓的所有數據的總透明度”。據他說,這就是“為主動性賦予價值的透明度”。儘管最近幾天慘敗,但有關露西的工作仍在繼續。
來源 : 露西