# Quiz de sfârșit de capitol[[end-of-chapter-quiz]]

Să testăm ce ați învățat în acest capitol!

### 1. Care dintre următoarele sarcini pot fi încadrate ca o problemă de clasificare a tokenilor?

### 2. Ce parte a preprocesării pentru clasificarea tokenilor diferă de celelalte pipelineuri de preprocesare?

-100 pentru a eticheta tokenii speciali.",
			explain: "Acest lucru nu este specific clasificării tokenilor - folosim întotdeauna -100 ca label pentru tokenii pe care dorim să îi ignorăm în pierdere."
		},
		{
			text: "Trebuie să ne asigurăm că labelurile sunt trunchiate sau padded la aceeași dimensiune ca și inputurile, atunci când aplicăm trunchierea/paddingul.",
			explain: "Într-adevăr! Totuși, aceasta nu este singura diferență.",
			correct: true
		}
	]}
/>

### 3. Ce problemă apare atunci când tokenizăm cuvintele într-o problemă de clasificare a tokenilor și dorim să etichetăm tokenii?

-100, astfel încât acestea să fie ignorate în pierdere."
		},
		{
			text: "Fiecare cuvânt poate produce mai mulți tokeni, astfel încât ajungem să avem mai multe tokeni decât labeluri.",
			explain: "Aceasta este problema principală, iar noi trebuie să aliniem labelurile originale cu tokenii.",
			correct: true
		},
		{
			text: "Tokenii adăugați nu au etichete, deci nu există nicio problemă.",
			explain: "Incorect; avem nevoie de atâtea etichete câți tokeni avem, altfel modelele noastre vor da erori."
		}
	]}
/>

### 4. Ce înseamnă "domain adaptation"??

### 5. Ce sunt labelurile într-o problemă de modelare a limbajului mascat?

### 6. Care dintre aceste sarcini poate fi văzută ca o problemă de sequence-to-sequence?

### 7. Care este modalitatea corectă de preprocesare a datelor pentru o problemă de sequence-to-sequence?

inputs=... și targets=....",
			explain: "Acesta ar putea fi un API pe care îl vom adăuga în viitor, dar nu este disponibil acum."
		},
		{
			text: "Inputurile și targeturile trebuie preprocesate, în două apeluri separate către tokenizer.",
			explain: "Acest lucru este adevărat, dar incomplet. Trebuie să faceți ceva pentru a vă asigura că tokenizerul le procesează pe ambele în mod corespunzător."
		},
		{
			text: "Ca de obicei, trebuie doar să tokenizăm inputurile.",
			explain: "Nu într-o problemă de clasificare a secvențelor; targeturile sunt de asemenea texte pe care trebuie să le convertim în numere!"
		},
        {
			text: "Inputurile trebuie să fie trimise către tokenizer, la fel și targeturile, dar în cadrul unui manager de context special.",
			explain: "Corect, tokenizerul trebuie să fie pus în target mode de către acel context manager.",
			correct: true
		}
	]}
/>

{#if fw === 'pt'}

### 8. De ce există o subclasă specifică a `Trainer` pentru problemele sequence-to-sequence?

-100",
			explain: "Aceasta nu este deloc o pierdere personalizată, ci modul în care pierderea este întotdeauna calculată."
		},
		{
			text: "Deoarece problemele de sequence-to-sequence la secvență necesită o buclă de evaluare specială",
			explain: "Acest lucru este corect. Predicțiile modelelor sequence-to-sequence sunt de obicei rulate cu metoda generate().",
			correct: true
		},
		{
			text: "Deoarece targeturile sunt texte în probleme sequence-to-sequence",
			explain: "Trainer-ului nu prea îi pasă de asta, deoarece acestea au fost preprocesate înainte."
		},
        {
			text: "Deoarece folosim două modele în problemele sequence-to-sequence",
			explain: "Într-un fel, folosim două modele, un codificator și un decodificator, dar acestea sunt grupate într-un singur model."
		}
	]}
/>

{:else}

### 9. De ce este adesea inutil să se specifice o pierdere atunci când se apelează `compile()` pe un model Transformer?

{/if}

### 10. Când ar trebui să preantrenați un model nou?

### 11. De ce este ușor să preantrenăm un model lingvistic pe o mulțime de texte?

### 12. Care sunt principalele provocări la preprocesarea datelor pentru o sarcină de răspundere a întrebărilor?

### 13. Cum se face de obicei post-procesarea în răspunderea la întrebări?

