Skip to content

Commit

Permalink
Create README.en.md
Browse files Browse the repository at this point in the history
Translated README.md to pt-br
  • Loading branch information
raphox committed Mar 28, 2023
1 parent 1ec7998 commit 0a9c3c9
Show file tree
Hide file tree
Showing 2 changed files with 104 additions and 16 deletions.
87 changes: 87 additions & 0 deletions README.en.md
Original file line number Diff line number Diff line change
@@ -0,0 +1,87 @@
<p align="center" width="100%">
<img src="assets/cabrita.png" alt="Cabrita" style="width: 20%; min-width: 300px; display: block; margin: auto;">
</p>

# Cabrita: A portuguese finetuned instruction LLaMA

This repository is intended to share all the steps and resources that we used to finetune our version of LLaMA.

This model is designed for research use only, i.e., cannot be used for commercial purposes or entertainment.


## References

> If I have seen further it is by standing on the sholders [sic] of Giants.
> -- <cite>Isaac Newton</cite>
We started this section with this citation because everything we did was only possible due to the strong community and works that other people and groups did. For our work, we rely mainly in the works developed by: [LLaMA](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca), [Alpaca Lora](https://github.com/tloen/alpaca-lora), [ChatGPT](https://openai.com/blog/chatgpt) and [Hugging Face](https://huggingface.co/). So, thank you all for the great work and open this to the world!


## Data

We translated the [alpaca_data.json](https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json) to portuguese using ChatGPT. Even this translation was not the best, the tradeoff between costs and results were. We paid around US$ 8.00 to translate the full dataset to portuguese.
If you want to know more about how the dataset was built go to: [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca).


## Finetuning

To finetuned the LLaMA model we used the code available on [Alpaca Lora](https://github.com/tloen/alpaca-lora), which provides code to finetune the LLaMA model using PEFT from Hugging Face. With this, we could run our finetuning step using 1 A100 at Colab on top of LLaMA-7B. We trained during 1 hour and we found the results pretty incredible with just that much time. The notebook we used is avaible [here](notebooks/train_lora.ipynb).


## Example outputs

Stanford Alpaca:
```
Instruction: Invente uma desculpa criativa pra dizer que não preciso ir à festa.
Response: Eu preciso se concentrar em trabalho importante para mim, por isso eu não posso ir à festa.
```

Cabrita:
```
Instrução: Invente uma desculpa criativa pra dizer que não preciso ir à festa.
Resposta: "Eu preciso ficar em casa para cuidar dos meus animais de estimação."
```


Stanford Alpaca:
```
Instruction: Como posso começar a carreira como cientista de dados? Escreva na forma de lista.
Response:
1. Comece por se especializar em um campo específico, como big data, computação, bioinformática ou estatística.
2. Obtivere um diploma em um programa de graduação relacionado a ciência de dados, como informática, matemática ou estatística.
3. Aquisite experiência prática através de internships ou projetos em empresas ou instituições.
4. Ameize sua resumo e currículo com resultados relevantes e experiência em trabalho relacionado.
5. Leia artigos, livros e atualizações sobre ciência de dados.
6. Crie um portfólio com projetos e experimentos que tenha realizado.
7. Receba um certificado de qualificação em alguma área de ciência de dados.
8. Tente obter contato com profissionais da área para conversar sobre oportunidades de emprego.
9. Acesse redes sociais, como LinkedIn, para encontrar empregos e conexões.
10. Continui sua formação atualizando-se com tecnologias e ferramentas de ciência de dados.
```

Cabrita:
```
Instrução: Como posso começar a carreira como cientista de dados? Escreva na forma de lista.
Resposta:
1. Obtenha um mestrado em ciência de dados ou engenharia de dados.
2. Encontre um emprego como cientista de dados ou engenheiro de dados.
3. Conheça as principais ferramentas de análise de dados, como Python, R e SQL.
4. Conheça as principais técnicas de análise de dados, como regressão linear, regressão logística e análise de clustering.
5. Conheça as principais abordagens de análise de dados, como análise exploratória, análise de associação e análise de regressão.
6. Conheça as principais ferramentas de visualização de dados, como Tableau, QlikView e Power BI.
7. Conheça as principais abordagens de análise de dados, como análise de associação, análise de regressão e análise exploratória.
```

You can test it using the eval notebook [here](notebooks/cabrita-lora.ipynb).

## Next steps

- Create a better portuguese dataset
- Evaluate the toxicity
- Finetune large models


## Authors

- [piEsposito](https://github.com/piEsposito)
- [pedrogengo](https://github.com/pedrogengo)
33 changes: 17 additions & 16 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -2,33 +2,34 @@
<img src="assets/cabrita.png" alt="Cabrita" style="width: 20%; min-width: 300px; display: block; margin: auto;">
</p>

# Cabrita: A portuguese finetuned instruction LLaMA
# Cabrita: Uma instrução finetuned em português para LLaMA

This repository is intended to share all the steps and resources that we used to finetune our version of LLaMA.
Este repositório tem como objetivo compartilhar todos os passos e recursos que usamos para realizar finetune na nossa versão do LLaMA.

This model is designed for research use only, i.e., cannot be used for commercial purposes or entertainment.
Este modelo foi projetado apenas para uso em pesquisa, ou seja, não pode ser usado para fins comerciais ou de entretenimento.


## References
## Referências

> If I have seen further it is by standing on the sholders [sic] of Giants.
> Se eu vi mais longe foi por estar de pé sobre ombros de gigantes.
> -- <cite>Isaac Newton</cite>
We started this section with this citation because everything we did was only possible due to the strong community and works that other people and groups did. For our work, we rely mainly in the works developed by: [LLaMA](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca), [Alpaca Lora](https://github.com/tloen/alpaca-lora), [ChatGPT](https://openai.com/blog/chatgpt) and [Hugging Face](https://huggingface.co/). So, thank you all for the great work and open this to the world!
Começamos esta seção com essa citação porque tudo o que fizemos foi possível apenas devido à forte comunidade e trabalhos que outras pessoas e grupos fizeram. Para o nosso trabalho, confiamos principalmente nos trabalhos desenvolvidos por: [LLaMA](https://ai.facebook.com/blog/large-language-model-llama-meta-ai/), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca), [Alpaca Lora](https://github.com/tloen/alpaca-lora), [ChatGPT](https://openai.com/blog/chatgpt) e [Hugging Face](https://huggingface.co/). Então, obrigado a todos pelo excelente trabalho e por abrir isso para o mundo!


## Data
## Dados

We translated the [alpaca_data.json](https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json) to portuguese using ChatGPT. Even this translation was not the best, the tradeoff between costs and results were. We paid around US$ 8.00 to translate the full dataset to portuguese.
If you want to know more about how the dataset was built go to: [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca).
Traduzimos o [alpaca_data.json](https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json) para português usando o ChatGPT. Mesmo que essa tradução não tenha sido a melhor, o trade-off entre custos e resultados foi aceitável. Pagamos cerca de US$ 8,00 para traduzir o conjunto de dados completo para o português.

Se você quiser saber mais sobre como o conjunto de dados foi construído, vá para: [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca).


## Finetuning

To finetuned the LLaMA model we used the code available on [Alpaca Lora](https://github.com/tloen/alpaca-lora), which provides code to finetune the LLaMA model using PEFT from Hugging Face. With this, we could run our finetuning step using 1 A100 at Colab on top of LLaMA-7B. We trained during 1 hour and we found the results pretty incredible with just that much time. The notebook we used is avaible [here](notebooks/train_lora.ipynb).
Para realizar o finetuned do modelo LLaMA, usamos o código disponível no [Alpaca Lora](https://github.com/tloen/alpaca-lora), que fornece código para finetunar o modelo LLaMA usando PEFT da Hugging Face. Com isso, pudemos executar nosso passo de finetuning usando 1 A100 no Colab em cima do LLaMA-7B. Treinamos por 1 hora e achamos os resultados incríveis com apenas esse tempo. O notebook que usamos está disponível [aqui](notebooks/train_lora.ipynb)..


## Example outputs
## Exemplo de resultados

Stanford Alpaca:
```
Expand Down Expand Up @@ -74,14 +75,14 @@ Resposta:

You can test it using the eval notebook [here](notebooks/cabrita-lora.ipynb).

## Next steps
## Próximos passos

- Create a better portuguese dataset
- Evaluate the toxicity
- Finetune large models
- Criar um conjunto de dados em português melhor
- Avaliar a toxicidade
- Finetune de modelos grandes


## Authors
## Autores

- [piEsposito](https://github.com/piEsposito)
- [pedrogengo](https://github.com/pedrogengo)

0 comments on commit 0a9c3c9

Please sign in to comment.