Skip to content

This project involves developing sentiment classification models (positive, negative or neutral) on social networks using three different architectures (LSTM, BERT, and GPT), and evaluating the best of them.

Notifications You must be signed in to change notification settings

Fanthommm/MiniProjet_TwitterSentimentAnalysis

Repository files navigation

MiniProjet_TwitterSentimentAnalysis

Dernier délai : 18 Décembre 2023

Sujet : analyse de sentiments

Le traitement automatique de la langue est un domaine multidisciplinaire impliquant la linguistique, l'informatique et l'intelligence artificielle. Il vise à créer des outils de traitement de la langue naturelle pour diverses applications. Parmi ces applications, nous pouvons citer celles qui relèvent du traitement des réseaux sociaux. Les sites de médias sociaux, tels que Twitter, sont une source riche de nombreux types d'informations, notamment en matière de santé. Ce projet consiste à développer des modèles de classification des sentiments (positive, negative ou neutre) sur les réseaux sociaux avec trois architectures différentes (LSTM, BERT, et GPT), et à évaluer le meilleur d’entre eux.

Dataset est le site Kaggle: training.1600000.processed.noemoticon.csv

Prerequisite

LSTM

Open In Colab

Overview

  1. Import et load dataset
  2. Data processing
    1. Tokenization
    2. Padding
    3. Data splitting
    4. Encoder
  3. Embedding
  4. Modeling
  5. Evaluation

BERT

Open In Colab

This notebook contains the code for a sentiment analysis model using BERT (Bidirectional Encoder Representations from Transformers). The model is trained on a dataset for sentiment classification.

Overview

  1. Data preparing
  2. Tokenization
  3. Model Training ( a small version of BERT Model for sequenceClassificaton )
  4. Evaluation (accuracy = 0.97 , loss = 0.10)
  5. Interference / predictions

About

This project involves developing sentiment classification models (positive, negative or neutral) on social networks using three different architectures (LSTM, BERT, and GPT), and evaluating the best of them.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published