MI jaunumi 2025.gada janvārī

Aivis Brutans
7 min readFeb 9, 2025

--

MI ģenerēts attēls (DALLE)

Šajā rakstā apkopoti dažādi notikumi mākslīgā intelekta (MI) un mašīnmācīšanās jomā 2025.gada janvārī.

Drošība

Ekrānuzņēmums no https://www.resemble.ai/deepfake-database/
  • Anthropic atbilstības pētniecības komanda (alignment science team) publicēja rakstu par drošības izpētes virzieniem mākslīgā intelekta (MI) jomā.

Raksts sniedz pārskatu par tehniskajiem pētniecības virzieniem MI drošības jomā, ko veic uzņēmums Anthropic un tas aicina MI pētniecības kopienai pievērsties šiem jautājumiem. Raksta mērķis ir identificēt konkrētus tehniskus risinājumus, kas varētu palīdzēt novērst katastrofālus nākotnes MI sistēmu riskus, piemēram, masveida cilvēku bojāeju vai cilvēku kontroles zaudēšanu pār MI.

Galvenie pētniecības virzieni ietver:

  • MI spēju novērtēšana — izstrādāt precīzākas metodes MI sistēmu reālās ietekmes un attīstības trajektorijas novērtēšanai.
  • MI saskaņotības novērtēšana — pētīt, cik lielā mērā MI darbojas atbilstoši vēlamajām vērtībām un drošības standartiem.
  • MI domāšanas izpratne — analizēt, kā modeļi pieņem lēmumus un vai tie spēj slēpt savus patiesos nolūkus.
  • MI kontrole un uzraudzība — metodes, kā nodrošināt MI darbības drošību, izmantojot uzvedības un aktivāciju monitoringu.
  • Drošības uzraudzības mērogošana — stratēģijas, kā efektīvi pārraudzīt progresīvus MI modeļus pat tad, ja cilvēku uzraudzība kļūst neefektīva.
  • MI godīguma nodrošināšana — pētījumi par to, kā atpazīt un veicināt modeļu godīgumu.
  • Aizsardzība pret uzbrukumiem — stratēģijas, kā uzlabot MI sistēmu noturību pret ļaunprātīgiem izmantojumiem, piemēram, jailbreak uzbrukumiem.
  • Bīstamas informācijas “aizmācīšana” (Unlearning dangerous information and capabilities) — metodes, kā padarīt MI nespējīgu izmantot kaitīgas zināšanas.
  • Daudzu MI aģentu pārvaldība (Learned governance for multi-agent alignment) — koordinācijas problēmu risinājumi, kas var rasties, kad mijiedarbojas vairāki MI modeļi.

Raksts aicina MI pētniecības kopienu pievērsties šiem jautājumiem, lai nodrošinātu nākotnes MI sistēmu drošību un samazinātu iespējamos riskus.

Likumdošana

Attēls no https://bsky.app/profile/fdaudens.bsky.social/post/3lfg67hfpg22i

Notikumi

Embedding modeļi

  • Uzņēmums Voyage AI izveidojis jaunu embedding modeli: voyage-3-large
Embedding modeļu tops (angļu valodai): https://huggingface.co/spaces/mteb/leaderboard (2025–02–03)
Atsevišķu embedding modeļu salīdzinājums pēc NDCG@10 metrikas (avots: https://blog.voyageai.com/2025/01/07/voyage-3-large/)

Modeļa parametri:

  • konteksta logs: 32'000 tokenu [1],
  • dimensijas: 1'024 (pēc noklusējuma), bet ir konfigurējams arī uz 256, 512 vai 2048 dimensijām [1],
  • atbalstītās valodas (iekavās norādīts NDCG@10 rezultāts attiecīgai valodai voyage-3-large (int8, 1024) modelim): angļu, arābu (95.2%), bengāļu (83.0%), čehu (85.5%), dāņu (97.4%), itāļu (89.5%), japāņu (91.3%), korejiešu (94.7%), krievu (87.6%), franču (87.1%), grieķu (95.9%), gruzīnu (65.3%), nīderlandiešu (99.6%), norvēģu (99.7%), persiešu (99.2%), poļu (99.9%), portugāļu (97.4%), rumāņu (68.5%), slovāku (86.7%), spāņu (86.8%), taju (98.6%), turku (92.1%), ungāru (87.9%), urdu (97.9%), vācu (83.6%), vjetnamiešu (91.6%), zviedru (85.1%) [2].

[1] — “voyage-3-large: the new state-of-the-art general-purpose embedding model”: https://docs.voyageai.com/docs/embeddings

[2] —” [PUBLIC] Voyage AI voyage-3-large Evaluation Results”: https://docs.google.com/spreadsheets/d/1Su4k9pfLgKfLQCLlqz-SlW9aErEJXOPYZyhZ_XbViFI/edit?gid=502255687#gid=502255687

LLM modeļi

Skat. arī citas sadaļas (text-to-code, text-to-image u.c.).

Līdzīga funkcionalitāte: OpenAI Predicted Outputs.

Text-to-Code

Labākie LLM modeļi/aģenti SWE-bench lite topā (2025–02–03)
  • Uzņēmumam Mistral AI jauns modelis — Codestral 25.01https://mistral.ai/news/codestral-2501/ Pēc LMArena “Copilot Arena” topa, modelis, kopā ar Deepseek V2.5 un Claude 3.5 Sonnet modeļiem, ieņem 1.vietu:
Labākie kodēšanas asistenti pēc https://lmarena.ai/ “Copilot Arena” topa (2025–02–03)

Dokumentācija par Codestral (t.sk. integrācija ar dažādām platformām) ir pieejama šeit.

Text-to-Image (T2I)

Text-to-image modeļu tops LMArena (https://lmarena.ai/) (2025–01–26)

Citi T2I modeļu topi: Artificial Analysis, MJ-Bench.

Ekrānšāviņš no https://app.rendernet.ai/app/text-to-image (Flux: Raw Photo)

Attēlu modeļi

image-to-text (I2T), image-to-image (I2I), image-to-3D u.c.

  • Uzņēmums M87 Labs izlaida jaunu atvērtā koda attēlu modeli (vision language model) Moondream 1.9B.
    Šeit ir sīkāk aprakstītas modeļa iespējas.
  • Stability AIStable Point Aware 3D (SPAR3D) — izmantojot 2D objekta attēlu, izveido 3D punktu mākoni (point cloud) — https://stability.ai/news/stable-point-aware-3d
  • Uzņēmums HuggingFace publicēja kodu, ko izmantoja, lai apmācītu SmolVLM — modelis, kurš var atbildēt uz jautājumiem par iedoto attēlu.

Video modeļi/rīki

text-to-video (T2V), video-to-video (V2V) u.c.

MI aģenti, RAG

Alternatīvi rīki: Computer Use (Anthropic), Open Operator (Browserbase), Browser Use, UI-TARS Desktop (ByteDance).

Rīki

Izglītība

Sports

  • Formula E un Google Cloud paziņo par partnerību. Šīs sadarbības galvenie virzieni:
  1. Snieguma uzlabošana ar mākslīgo intelektu — izmantojot Google Cloud Vertex AI un Gemini modeļus braucēju snieguma analīzei, sniedzot personalizētus ieteikumus un reāllaika atgriezenisko saiti.
  2. Līdzjutēju iesaistes padziļināšana — izmantojot BigQuery platformu, lai radītu personalizētu skatītāju pieredzi un detalizētākas sacīkšu prognozes TV.
  3. Kiberdrošības uzlabošana — nodrošinot augsta līmeņa drošības pasākumus Formula E datiem.

Papildus tiks paplašināts GENBETA projekts, kurā abas organizācijas turpinās attīstīt drošību, sniegumu un inovācijas autosportā.

Neražas

  • Uzņēmuma Cognition izveidotais MI programmēšanas inženieris Devins kādam uzņēmumam radīja papildu $733 izmaksas — https://x.com/abhagsain/status/1876362355870994538.
    Ņemot vērā ažiotāžu, izmaksas tomēr kompensēja PostHog un Cognition, bet visvērtīgākā atziņa, ko šis uzņēmējs guva — ir vairākas reizes jāpārskata MI ģenerētais kods pirms tas tiek laists produkcijā.
  • Lai gan DeepSeek uzņēmuma izstrādātais atvērtā tipa modelis DeepSeek-R1 ir viens no labākajiem MI nozarē, daudzi DeepSeek tērzētavas lietotāji ir pamanījuši, ka tas cenzē atsevišķu saturu. Īpaši tas nevēlas neko atbildēt par 1989. gada slaktiņu Tiaņaņmeņas laukumā (daži piemēri: The Guardian, Sherwood, Promtfoo, KyleJGlen, Luiza Jarovsky u.c.).
  • DeepSeek bija saskāries ar vēl vienu citu problēmu — uzņēmums Wiz Research atklāja datu noplūdi tērzētavas datos. Sīkāk skat. šeit.

Dažādi

--

--

No responses yet