Our Top Course

MI Attīstības Posmi

1940.–1956

Teorētiskie pamati un lauka definēšana

Šajā posmā tika definēts pamatjautājums “vai mašīnas var domāt?” un izstrādāti formāli kritēriji pētniecībai. Zinātnieki sāka veidot pirmās teorijas par mākslīgo intelektu.

Konkrēti piemēri:

• A. Tjūrings (1950) publicē “Computing Machinery and Intelligence”, ieviešot ideju par imitācijas spēli (Tjūringa testu).

• Dārtmutas vasaras projekts (1956) – šeit oficiāli nostiprinās termins “artificial intelligence” un tiek formulēti pirmie mērķi.

1956–1970. gadi

Simboliskais MI

Attīstās noteikumu sistēmas, loģika un meklēšanas algoritmi. MI tiek būvēts, balstoties uz zināšanām (knowledge-first pieeja).

Konkrēti piemēri:

• ELIZA (1966) – agrīns čatbots, kas izmantoja vienkāršu rakstu atpazīšanu un aizvietošanas noteikumus, lai radītu “sarunas” ilūziju.

1970.–1980. gadi

Ekspertu sistēmu uzplaukums

Tiek izstrādātas zināšanu bāzes un inferenču dzinēji praktiskām jomām, piemēram, medicīnai, inženierijai un diagnostikai.

Konkrēti piemēri:

• MYCIN – medicīniskas konsultēšanas sistēma, kas palīdzēja infekciju diagnostikā un terapijas izvēlē.

1960. beigas–1990.

“AI ziemas”

Pārspīlētas gaidas un vāja veiktspēja reālajā pasaulē noveda pie finansējuma un uzticības krituma atsevišķos periodos.

Konkrēti piemēri:

• ALPAC ziņojums (1966) – kritika mašīntulkošanai, kas samazināja finansējumu.

• Lighthill ziņojums (1973) – izvērtējums Lielbritānijā, kas noveda pie atbalsta sarukuma.

1990. gadi

Šaurais MI un “cilvēka pārspēšana”

Tiek attīstītas ļoti spēcīgas, bet šauri specializētas sistēmas. Uzsvars uz meklēšanu, heuristikām un lielu skaitļošanas jaudu.

Konkrēti piemēri:

• IBM Deep Blue (1997) – ikoniska demonstrācija, uzvarot pasaules čempionu Gariju Kasparovu sešu partiju šaha mačā.

2000.–2016

Dziļās mācīšanās izrāviens

Notiek pāreja no “noteikumiem” uz “mācīšanos no datiem”. GPU attīstība un lielie dati padara dziļos tīklus praktiski pārākus.

Konkrēti piemēri:

• Krizhevsky, Sutskever, Hinton (2012) – būtisks lēciens attēlu klasifikācijā ar dziļiem konvolūcijas tīkliem (ImageNet).

2017–2019

Transformer arhitektūra

Tiek ieviesti valodas modeļi ar uzmanības (attention) mehānismiem, kas labi mērogojas un uzlabo valodas apstrādi.

Konkrēti piemēri:

• “Attention Is All You Need” (2017) – ievieš Transformer arhitektūru, atsakoties no rekursīvajiem tīkliem.

2020–mūsdienas

Ģeneratīvais MI un masveida ieviešana

Modeļi, kas ne tikai atpazīst, bet arī ģenerē tekstu, attēlus un kodu. Notiek plaša integrācija produktos.

Konkrēti piemēri:

• GPT-3 (2020) – demonstrē “few-shot” mācīšanās spējas.

• ChatGPT (2022) – spēja sekot instrukcijām dialogā.

• DALL·E 2 / Latent Diffusion – augstas izšķirtspējas attēlu ģenerēšana.