Dedzīga izpilde programmā TensorFlow ir režīms, kas ļauj intuitīvāk un interaktīvāk izstrādāt mašīnmācīšanās modeļus. Tas ir īpaši izdevīgi modeļa izstrādes prototipēšanas un atkļūdošanas posmos. Programmā TensorFlow mērķtiecīga izpilde ir veids, kā nekavējoties izpildīt darbības, lai atgrieztu konkrētas vērtības, pretstatā tradicionālajai izpildei, kas balstīta uz grafiku, kad darbības tiek pievienotas aprēķina grafikam un izpildītas vēlāk.
Dedzīga izpilde netraucē TensorFlow izplatīto funkcionalitāti. TensorFlow ir izstrādāts, lai atbalstītu sadalītu skaitļošanu vairākās ierīcēs un serveros, un šī funkcionalitāte joprojām ir pieejama, ja tiek izmantota nepacietīga izpilde. Faktiski TensorFlow izplatīšanas stratēģijas var nemanāmi integrēt ar dedzīgu izpildi, lai apmācītu modeļus vairākās ierīcēs vai serveros.
Strādājot ar izplatīto TensorFlow eager režīmā, varat izmantot tādas stratēģijas kā `tf.distribute.MirrorredStrategy', lai efektīvi izmantotu vairākus GPU vienā datorā vai `tf.distribute.MultiWorkerMirrroredStrategy', lai apmācītu modeļus vairākās iekārtās. Šīs izplatīšanas stratēģijas risina sarežģītās dalītās skaitļošanas problēmas, piemēram, saziņu starp ierīcēm, gradientu sinhronizāciju un rezultātu apkopošanu.
Piemēram, ja jums ir modelis, kuru vēlaties apmācīt ar vairākiem GPU, izmantojot nepacietīgu izpildi, varat izveidot “MirrroredStrategy” objektu un pēc tam palaist apmācību ciklu šīs stratēģijas ietvaros. Tādējādi aprēķini tiks automātiski sadalīti pa pieejamajiem GPU un tiks apkopoti gradienti, lai atjauninātu modeļa parametrus.
python import tensorflow as tf strategy = tf.distribute.MirroredStrategy() with strategy.scope(): # Define and compile your model model = tf.keras.Sequential([...]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # Train your model model.fit(train_dataset, epochs=5)
Šajā piemērā MirroredStrategy tiek izmantota, lai izplatītu modeli vairākos GPU apmācībai. Stratēģijas.scope() konteksta pārvaldnieks nodrošina, ka modelis tiek replicēts katrā GPU un pirms modeļa parametru atjaunināšanas tiek apkopoti gradienti.
Dedzīga izpilde programmā TensorFlow netraucē ietvara izplatīto funkcionalitāti. Tā vietā tas nodrošina interaktīvāku un intuitīvāku veidu, kā izstrādāt mašīnmācīšanās modeļus, vienlaikus nodrošinot efektīvu sadalītu apmācību vairākās ierīcēs vai serveros.
Citi jaunākie jautājumi un atbildes par Virzība mašīnmācībā:
- Kādi ir ierobežojumi darbam ar lielām datu kopām mašīnmācībā?
- Vai mašīnmācība var sniegt dialogu?
- Kas ir TensorFlow rotaļu laukums?
- Vai Google mākoņa risinājumus var izmantot, lai atsaistītu skaitļošanu no krātuves, lai efektīvāk apmācītu ML modeli ar lielajiem datiem?
- Vai Google Cloud Machine Learning Engine (CMLE) piedāvā automātisku resursu ieguvi un konfigurēšanu un apstrādā resursu izslēgšanu pēc modeļa apmācības pabeigšanas?
- Vai ir iespējams apmācīt mašīnmācības modeļus patvaļīgi lielām datu kopām bez žagas?
- Vai, izmantojot CMLE, lai izveidotu versiju, ir jānorāda eksportētā modeļa avots?
- Vai CMLE var nolasīt Google mākoņa krātuves datus un izmantot noteiktu apmācītu modeli secinājumu veikšanai?
- Vai Tensorflow var izmantot dziļo neironu tīklu (DNN) apmācībai un secinājumiem?
- Kas ir gradienta palielināšanas algoritms?
Skatiet vairāk jautājumu un atbilžu sadaļā “Mašīnmācības attīstība”.