Meta Platforms Inc.宣布其應用程序的廣告收益率增長了32%,這將改善了人工智能(AI)的融合。
在達沃斯的世界經濟論壇上,全球業務集團負責人尼古拉·門德爾松(Nicola Mendelsohn導致降低17%根據彭博社的說法。此外,AI工具的利用使廣告系列創建過程大大簡化了,將設置步驟從15減少到30個按鈕。
去年,Meta推出了針對廣告商量身定制的新生成的AI工具,具有快速圖像和文本創建功能以及廣告的預測性能分析。 Meta進行了這些調整以提高速度並容納Apple Inc.的隱私更改。

世界經濟論壇(WEF)年度會議的參與者在2024年1月18日在達沃斯擁有並經營Facebook,Instagram,Threads和WhatsApp的公司的米塔(Meta)攤位。
禁止政治廣告
去年,元限制了用法在全球範圍內,其生成的AI廣告工具用於政治活動,住房,工作,信用,社會問題,健康,藥品和金融服務。該政策在全球範圍內適用,是Meta決定禁止廣告商在敏感類別中使用生成的AI工具的決定的延伸。
梅塔(Meta)亞太副總裁丹·附近(Dan Keary)強調了公司對了解潛在風險並實施適當保障措施的承諾,以在與受管制行業相關的廣告中使用生成AI。在各個國家的即將舉行的選舉之前,包括印度尼西亞,印度,美國,芬蘭,巴基斯坦和台灣。
推動AI安全
此外,梅塔(Meta)去年推出了“紫色美洲駝”(Purple Llama),該項目旨在為開發人員提供開源工具,以評估和增強在公共部署之前的生成AI模型的可靠性和安全性。認識到確保AI安全所需的協作性質,Meta的目標是通過紫色美洲駝創建共享的基礎,以解決有關大型語言模型和其他AI技術的關注。
紫色美洲駝的合作努力涉及夥伴關係借助AI開發人員,雲服務(AWS,Google Cloud),半導體公司(英特爾,AMD,NVIDIA)和軟件公司(Microsoft)。 Infoworld稱,該計劃旨在提供研究和商業用途的工具,以評估AI模型的功能並確定安全風險。
在發布的最初工具中,網絡上將脫穎而出,評估AI生成的軟件中的網絡安全風險。它結合了能夠識別不適當或有害文本的語言模型,從而幫助開發人員測試其AI模型是否存在潛在脆弱性。
此外,套件中的另一個工具Llama Guard是一種訓練有素的語言模型,可檢測潛在的有害或令人反感的語言,可幫助開發人員過濾不安全的內容並防止不適當的輸出。這些工具強調了連續測試和改進對AI安全性的重要性。
