Dépôt DSpace/Université Larbi Tébessi-Tébessa

Apprentissage Par Renforcement Profond Concept et Application

Afficher la notice abrégée

dc.contributor.author ABDELOUAHAD, Maroua / Khaoula, AMRANI / Encadré par KHEMAISSIA, Seddik
dc.date.accessioned 2024-07-14T11:41:26Z
dc.date.available 2024-07-14T11:41:26Z
dc.date.issued 2024-06
dc.identifier.uri http//localhost:8080/jspui/handle/123456789/11572
dc.description.abstract "Ce mémoire vise à explorer l'application de l'apprentissage par renforcement profond (DRL) aux stratégies de trading algorithmique. Les principaux objectifs sont : Comprendre les Fondamentaux dans :  Chapitre 1 : Apprentissage par Renforcement (RL),Concepts clés : agents, environnements, actions, états, récompenses,Politiques, fonctions de valeur, fonctions de valeur Q,Le défis dilemme exploration-exploitation, convergence des algorithmes.  Chapitre 2 : Apprentissage Profond (Deep Learning) Réseaux de neurones artificiels : couches, fonctions d'activation, propagation avant et arrière.Réseaux de Neurones Convolutionnels (CNN) : reconnaissance d'images, traitement des données spatiales.Techniques d'entraînement : optimisation par descente de gradient. Analyser les Algorithmes de DRL dans le Chapitre 3 : Apprentissage par Renforcement Profond (DRL)  DQN : Utilisation des réseaux de neurones pour approximer la fonction de valeur Q.  Double DQN : Réduction de la surestimation des valeurs Q.  Dueling DQN : Séparation de la valeur d'un état et de l'avantage des actions. Implémentation dans Chapitre 4 : Application du DRL au Marché Boursier Développement de stratégies de trading algorithmique adaptées aux conditions de marché changeantes. par les étapes :  Préparation des données : collecte, nettoyage, prétraitement des données de marché historiques.  Modélisation de l'environnement de trading : définition des états, actions, récompenses.  Implémentation des algorithmes DRL : développement et entraînement des modèles DQN, Double DQN, Dueling DQN.  Évaluation et optimisation : test des stratégies, ajustement des hyperparamètres, évaluation des performances. Le mémoire vise à améliorer les pratiques de trading algorithmique en minimisant les risques et maximisant les profits grâce aux capacités de l'IA et du DRL. Il fournit une compréhension détaillée des concepts et techniques, des exemples d'implémentation, et des études de cas pratiques, ouvrant la voie à des systèmes de trading plus intelligents et efficaces" en_US
dc.language.iso fr en_US
dc.publisher UNIVERSITE DE ECHAHID CHEIKH LARBI TEBESSI en_US
dc.subject "Apprentissage Par Renforcement Profond Apprentissage profond Réseaux neuronaux artificiels" en_US
dc.title Apprentissage Par Renforcement Profond Concept et Application en_US
dc.type Thesis en_US


Fichier(s) constituant ce document

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée