Hyppää sisältöön
    • Suomeksi
    • In English
  • Suomeksi
  • In English
  • Kirjaudu
Näytä aineisto 
  •   Etusivu
  • 3. UTUCris-artikkelit
  • Rinnakkaistallenteet
  • Näytä aineisto
  •   Etusivu
  • 3. UTUCris-artikkelit
  • Rinnakkaistallenteet
  • Näytä aineisto
JavaScript is disabled for your browser. Some features of this site may not work without it.

FinGPT: Large Generative Models for a Small Language

Luukkonen Risto; Komulainen Ville; Luoma Jouni; Eskelinen Anni; Kanerva Jenna; Kupari Hanna-Mari; Ginter Filip; Laippala Veronika; Muennighoff Niklas; Piktus Aleksandra; Wang Thomas; Tazi Nouamane; Scao Le Teven; Wolf Thomas; Suominen Osma; Sairanen Samuli; Merioksa Mikko; Heinonen Jyrki; Vahtola Aija; Antao Samuel; Pyysalo Sampo

FinGPT: Large Generative Models for a Small Language

Luukkonen Risto
Komulainen Ville
Luoma Jouni
Eskelinen Anni
Kanerva Jenna
Kupari Hanna-Mari
Ginter Filip
Laippala Veronika
Muennighoff Niklas
Piktus Aleksandra
Wang Thomas
Tazi Nouamane
Scao Le Teven
Wolf Thomas
Suominen Osma
Sairanen Samuli
Merioksa Mikko
Heinonen Jyrki
Vahtola Aija
Antao Samuel
Pyysalo Sampo
Katso/Avaa
2023.emnlp-main.164.pdf (499.2Kb)
Lataukset: 

doi:10.18653/v1/2023.emnlp-main.164
URI
https://aclanthology.org/2023.emnlp-main.164
Näytä kaikki kuvailutiedot
Julkaisun pysyvä osoite on:
https://urn.fi/URN:NBN:fi-fe2025082792575
Tiivistelmä

Large language models (LLMs) excel in many tasks in NLP and beyond, but most open models have very limited coverage of smaller languages and LLM work tends to focus on languages where nearly unlimited data is available for pretraining. In this work, we study the challenges of creating LLMs for Finnish, a language spoken by less than 0.1% of the world population. We compile an extensive dataset of Finnish combining web crawls, news, social media and eBooks. We pursue two approaches to pretrain models: 1) we train seven monolingual models from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the pretraining of the multilingual BLOOM model on a mix of its original training data and Finnish, resulting in a 176 billion parameter model we call BLUUMI. For model evaluation, we introduce FIN-bench, a version of BIG-bench with Finnish tasks. We also assess other model qualities such as toxicity and bias. Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.

Kokoelmat
  • Rinnakkaistallenteet [27094]

Turun yliopiston kirjasto | Turun yliopisto
julkaisut@utu.fi | Tietosuoja | Saavutettavuusseloste
 

 

Tämä kokoelma

JulkaisuajatTekijätNimekkeetAsiasanatTiedekuntaLaitosOppiaineYhteisöt ja kokoelmat

Omat tiedot

Kirjaudu sisäänRekisteröidy

Turun yliopiston kirjasto | Turun yliopisto
julkaisut@utu.fi | Tietosuoja | Saavutettavuusseloste