Disclaimer: Welkom bij onze TechBlog!
Dit is een artikel in ons TechBlog. Ons Techblog bevat artikelen, geschreven door onze developers, over dingen die ze zijn tegengekomen tijdens hun werkzaamheden. Deze artikelen gaan (meestal) over een technisch onderwerp, en zijn met name bedoeld om te vermaken en (soms) te informeren. S'il vous plaît, please do not take them te serieus, ありがとう.

vr. 2 mei Auteur: Jeroen Mimpen

Vertalen met AI - Deel 1 Aanvulling 1: Qwen3

In het vorige artikel hebben we verschillende modellen getest en vergeleken op hun vermogen om vertalingen te genereren. Hoewel we inmiddels werken aan deel 2 van deze reeks, zorgde de release van het Qwen3 taalmodel voor een relevante aanleiding om een tussen-artikel te publiceren.

Op 29 april 2025 kondigde het Chinese bedrijf Alibaba het Qwen3 taalmodel aan. Dit is de update/opvolger van Qwen2, en heeft een aantal interessante eigenschappen, zoals een instelbaar denkbudget en een mixture of experts-architectuur. Het taalmodel lijkt tot nu toe ook goed te presteren en positief ontvangen te worden. Daarom willen wij hier in een toekomstige blogpost verder de diepte mee in gaan. Maar het doel van dit artikel is om te kijken hoe deze familie van modellen presteren wanneer we ze presenteren met de vertaalverzoeken uit ons vorige artikel.

Dit artikel dient dus als een soort catch-up voor dit model, waarin we de vertaalopdrachten van het vorige artikel ook door dit model uit laten voeren. In alle volgende delen van deze blog-serie nemen we dit model automatisch mee in onze vertaalkaarten.

Qwen3 familie

Van het Qwen3 model zijn momenteel 8 varianten beschikbaar.

De eerste 2 varianten zijn de MoE (mixture of experts) modellen, Qwen3-235B-A22B en Qwen3-30B-A3B. De naamgeving van deze modellen is zeer duidelijk: Het gaat om modellen met 235 en 30 miljard parameters, waarbij de actieve experts respectievelijk 22 en 3 miljard parameters bevatten

Daarnaast zijn er ook nog 6 'dense' modellen uitgebracht, dus zonder MoE-architectuur: Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B, en Qwen3-0.6B.

Als je eerdere blogposts hebt gelezen, weet je inmiddels dat ik een voorliefde heb voor de kleinere modellen. In andere woorden: met een release zoals deze wordt ik op mijn (q)wenken bediend! Ook denken wij (bij Webenable) dat het correct kiezen en toepassen van deze modellen kan zorgen voor een veel efficiëntere inzet van AI-resources en dus lager energieverbruik. Ik experimenteer daarom regelmatig met de Llama3.2 1B- en 3B-varianten, en het is fijn om te zien dat er nu meer sterke opties bijkomen op dit schaalniveau, zeker nadat er bij de recente release van Llama4 geen opties waren voor modellen binnen dit segment (al hoop ik dat deze wel voor een 4.1 of 4.2 beschikbaar zullen komen).

Maar hoe presteren deze Qwen3 varianten bij vertalen?

Ik heb honger

Originele tekst

Ik heb honger.

Vertaling
Vertaling (na reflectie)

De resultaten zijn al vrij indrukwekkend. Natuurlijk is de "I have hunger" vertaling van het 0.6B model geen idiomatische vertaling, maar het model is al wel slim genoeg om de vertaal-instructies te begrijpen - iets waarvan we in het vorige artikel zagen dat llama3.2 1B daar moeite mee had. Dit model begrijpt de instructies wel, terwijl het model bijna de helft kleiner is!

De few-shot poging lijkt het model wel in de war te brengen. Hierbij geven we vooraf het voorbeeld ('Zij leest boeken.' => 'She reads books'), maar hier lijkt het model niet goed te begrijpen wat we hiermee bedoelen. Ik vermoed dat hier met het juiste type prompt misschien nog wel verbetering te behalen valt. Dit is iets waar we in een ander blog-artikel meer tijd in zullen investeren.

De rest van de modellen presteerden naar verwachting, al viel het wel op dat de 'I have hunger' vaker dan verwacht terugkwam, ook bij de iets grotere modellen. Misschien heeft dit te maken met de data waarop dit model getraind is, of misschien is dit een teken dat het model minder geschikt is voor vertalingen (of wellicht zelfs specifiek Nederlands-Engelse vertalingen), en bijvoorbeeld beter geschikt is voor andere taken.

Hond in de zon

Originele tekst

De zon schijnt. Ik loop met de hond naar de winkel. Daar koop ik brood en melk.

Vertaling
Vertaling (na reflectie)

Ook hier zien we hetzelfde: zelfs het 0.6B model weet deze zin goed te vertalen, maar raakt wel weer in de war van de few-shot prompt.

De balkendraak

Originele tekst

In order to obtain the Triforce, you’ll have to defeat Aquamentus, a very strong enemy. He shoots beams in three directions.

Vertaling
Vertaling (na reflectie)

Wederom geen onverwachte resultaten: pijlen schieten is een leuke (foute) variatie die ik nog niet eerder had gezien.

Conclusie: Is mijn (q)wens voor een sterk AI model uitgekomen?

Mijn (q)wens is zeker uitgekomen! Qwen3 lijkt weer een indrukwekkend model, en met name de kleinere formaten maken mij erg blij.

Een groot voordeel aan dit model is de permissieve licentie (Apache 2.0). Het is toegestaan om dit model op vrijwel alle manieren (persoonlijk en zakelijk) te mogen gebruiken, zonder restricties. Dit is bijvoorbeeld in tegenstelling tot sommige van de Llama modellen van Meta, die in Europa 'verbannen' zijn.

Ik verwacht dat dit model nog regelmatig genoemd gaat worden in onze toekomstige blogartikelen.