Viimased uuringud on käivitanud alarmid murettekitava nähtuse üle generatiivse tehisintellekti arendamisel: vastuste kvaliteedi degradeerumine.
Küsimus, mis tõuseb, on: kuidas jõutakse sellesse punkti ja milliseid meetmeid saab selle ennetamiseks rakendada?
Mudeli Kollapse: Degeneratiivne Fenomen
El "mudeli kokkuvarisemine" viitab protsessile, kus tehisintellekti süsteemid jäävad kinni halva kvaliteediga andmetega treeningtsüklisse, mis toob kaasa mitmekesisuse ja efektiivsuse vähenemise.
Ilia Shumailovi, uuringu kaasautori, sõnul, mis avaldati ajakirjas Nature, tekib see nähtus siis, kui tehisintellekt hakkab toituma oma enda väljunditest, perpetueerides kallutatusi ja vähendades oma kasulikkust. Pikaajaliselt võib see viia selleni, et mudel toodab üha ühtlasemat ja vähem täpset sisu, nagu kaja oma vastustest.
Emily Wenger, Duke'i ülikooli inseneriteaduse professor, illustreerib seda probleemi lihtsa näitega: kui tehisintellekti treenitakse koerte pilte genereerima, kipub see kordama kõige levinumaid tõuge, jättes kõrvale vähem tuntud.
See ei peegelda mitte ainult andmete kvaliteeti, vaid toob ka märkimisväärseid riske vähemuste esindatusele treeningandmekogudes.
Vaata ka: Tehisintellekt muutub üha intelligentsemaks ja inimesed üha lollimaks.
Inimese Sekkumise Raskus
Hoolimata olukorra tõsidusest, ei ole lahendus lihtne. Shumailov märgib, et ei ole selge, kuidas vältida mudeli kokkuvarisemist, kuigi on tõendeid, et reaalseid andmeid sünteetilistega segamine võib mõju leevendada.
Kuid see tähendab ka suurenemist koolituskuludes ning suuremat raskust täielike andmekogude juurde pääsemisel.
Selge lähenemise puudumine inimsekkumiseks seab arendajad dilemma ette: kas inimesed saavad tõeliselt kontrollida generatiivse AI tulevikku?
Fredi Vivas, RockingData tegevjuht, hoiatab, et ülemäärane koolitamine sünteetiliste andmetega võib luua "kajaefekti", kus AI õpib oma vigadest, vähendades veelgi selle võimet genereerida täpset ja mitmekesist sisu. Nii muutub küsimus, kuidas tagada AI mudelite kvaliteet ja kasulikkus, üha urgentsemaks.
Tuleviku Ebamugavus: Väljakutsed ja Võimalikud Lahendused
Eksperdid on ühel meelel, et sünteetiliste andmete kasutamine ei ole iseenesest negatiivne, kuid nende haldamine nõuab vastutustundlikku lähenemist. Sellised ettepanekud nagu veemärkide rakendamine genereeritud andmetes võiksid aidata tuvastada ja filtreerida sünteetilist sisu, tagades seeläbi kvaliteedi IA mudelite koolitamisel.
Kuid nende meetmete tõhusus sõltub koostööst suurte tehnoloogiaettevõtete ja väiksemate mudelite arendajate vahel.
Generatiivse IA tulevik on mängus ning teaduslik kogukond on kellavärgiga võidujooksus, et leida lahendusi enne, kui sünteetilise sisu mull plahvatab.
Võti on luua tugevad mehhanismid, mis tagavad, et IA mudelid jäävad kasulikeks ja täpseteks, vältides seeläbi kolapsi, mida paljud kardavad.