Aller au contenu principal

Prochaines Étapes et Viabilité

Suite au développement complet de la version 1.0 de Keralis, nous avons conduit une analyse approfondie de la viabilité technique et financière de la solution. Cette évaluation est essentielle pour garantir que la plateforme peut répondre efficacement aux besoins des entreprises dans des conditions réelles d'utilisation.

Faisabilité Technique

Tests de Charge et Optimisation

Nous avons effectué plusieurs tests de charge pour déterminer les limites et capacités de notre système :

Volumétrie Optimale par Fichier

Une question importante concernait la taille optimale des fichiers de logs à traiter. Nos tests montrent que :

  • Taille recommandée : 10 000 lignes de logs par fichier
  • Capacité maximale : Le système peut facilement traiter plus de 100 000 lignes par fichier pour le calcul des hashs SHA-256. Pour le vérifier nous avons run des calculs de hash pour des tailles de fichiers de logs variables, les différences en terme de temps nous permettent de monter jusqu'a 100 000 lignes de logs en traitement sans soucis.
Tableau comparatif
Nombre de lignesTemps réel (s)Temps utilisateur (s)Temps système (s)
100.0030.0020.000
1000.0010.0000.001
1,0000.0020.0000.001
8,4650.0020.0010.001
101,5800.0060.0040.002
Graphique de performance
Temps réel (secondes)
0.006 | *
|
|
0.005 |
|
|
0.004 |
|
|
0.003 | *
|
|
0.002 | * *
|
|
0.001 | *
|
+------------------------------------------------------
10 100 1K 10K 100K 1000K
Nombre de lignes (échelle log)
  • Perspective d'évolution : Pour les logs les plus anciens, nous envisageons d'implémenter un système de regroupement en pools pour optimiser le stockage et les performances

Scénario Réel pour une PME

Pour une PME typique avec une infrastructure standard (serveur web et services associés), nous avons mesuré la production moyenne de logs sur 24 heures avec des fichiers standardisés à 10 000 lignes :

Type de LogsNombre de Fichiers / 24h
Syslogs72 fichiers
Auth.log8 fichiers
Cron.log2 fichiers
Audit.log29 fichiers
Total111 fichiers

Capacité de Traitement Réelle

Pour une infrastructure composée de 5 serveurs :

  • Volume journalier : 555 fichiers (5 × 111)
  • Fréquence moyenne : 1 fichier toutes les 2,4 minutes
  • Temps de traitement actuel : 6 secondes par fichier (de la détection jusqu'à l'ancrage blockchain)
  • Marge de sécurité : Même avec une allocation d'1 minute par fichier, le système fonctionne largement dans ses capacités

Architecture Évolutive

Pour l'extension de la solution à plusieurs clients, nous avons conçu une architecture distribuée :

Architecture pour multiples clients

Architecture évolutive prenant en charge de multiples clients

Cette architecture prévoit :

  • Des instances VPS séparées par client
  • Des bases de données isolées
  • Un système de monitoring centralisé
  • Une gestion optimisée des requêtes blockchain

Analyse des Coûts

Coûts Blockchain

Les frais de transaction sur la blockchain Hedera constituent un élément important du modèle économique :

  • Coût par message : 0,0001$ (tarif officiel Hedera)
  • Validation empirique : Après plus de 4 000 messages envoyés dans nos tests, nous confirmons ce coût unitaire moyen
  • Coût journalier pour une PME de 5 serveurs : Environ 0,60$ par jour (555 fichiers × 0,0001$)

Coûts d'Infrastructure

Les besoins matériels de la solution sont remarquablement modestes :

  • Utilisation des ressources : Le système fonctionne à 70% de ses capacités sur un serveur avec seulement 1 Go de RAM
  • Stockage : Principal besoin d'expansion selon la durée de rétention des logs
  • VPS avec sauvegarde : Environ 10$ par mois
  • Base de données MongoDB : Environ 10$ par mois pour un déploiement standard

Coût Total Mensuel

Pour une PME type avec 5 serveurs :

ComposantCoût Mensuel
VPS + Backups10$
MongoDB10$
Transactions Hedera18$ (0,60$ × 30 jours)
Total38$

Ce coût extrêmement compétitif, inférieur à 40$ par mois pour une PME standard, démontre la viabilité économique de Keralis comme solution de sécurité pour les organisations de toutes tailles.

Roadmap de Développement

Pour les prochaines étapes du projet, nous prévoyons :

  1. Développement d'une interface d'administration multi-clients
  2. Optimisation des calculs de hash lors du monitoring par pool pour réduire la charge
  3. Création d'un tool CLI pour le déployement automatisé sur tout type de serveur linux

Affaire à suivre !