English Deutsch Français Italiano Español Português 繁體中文 Bahasa Indonesia Tiếng Việt ภาษาไทย
Toutes les catégories

8 réponses

Dès le début, à partir du moment où tu construis un algorythme tu as besoin des données après tu peux en construire des différents selon tes données et parfois tu n'as pas le choix. Le plus simple est que tu trouves un site sur cela car pour l'expliquer sur ce site cela n'est pas possible textuellement.

2007-01-03 00:16:21 · answer #1 · answered by Warao 7 · 0 3

En bien non ! C´est tout le temps !

La complexite d´un algorithme (au sens de Kolmogorov) c´est la fonction mathematique qui te permet de calculer le nombre d´operations elementaires que va realiser ton programme.
Par exemple tu doit lire chaque element d´un tableau m*n, tu vas realiser m*n lecture, m*n est donc la complexite de ton algorithme donc une complexite independante de la taille des donnees, ca n´existe pas a ma connaissance...

2007-01-03 02:10:55 · answer #2 · answered by jdk 7 · 1 1

dans quel contexte ? c'est pour une dissertation ?

2007-01-03 15:13:08 · answer #3 · answered by Ramis V 7 · 0 1

Tout dépend ce que tu appels "dépendre des données". Comme dit dans la réponse précédente, la complexité d'un algorithme dépend par définition de la taille des données. Mais on peut aussi avoir d'autre type de dépendance, ainsi le quicksort tri en moyenne un tableau en nlog(n) opérations, mais cette moyenne ne peut être atteinte que si la répartition de tes données est aléatoire. Si on utilise le quicksort pour trier un tableau dont on sait par avance qu'il est presque déjà trier, les performances de cette algorithme s'effondre. On peux donc avoir plusieurs type de dépendance et pas uniquement la taille du jeu de données.

2007-01-03 08:58:56 · answer #4 · answered by Jean-Michel 1 · 0 1

jamais, sauf... qu'il faut bien définir ce qu'on appelle une donnée. Quand on écrit qque chose de type O(n) ou O(nlog(n)) pour une complexité, on suppose qu'une operation sur la donnée de base est affectuée en temps constant . Si ce temps n'est pas constant, il faut l'intégrer dans la complexité totale. Un exemple: trier un tableau d'entiers se fait en nlog(n) en moyenne avec un quicksort. les opérations à réaliser sont une comparaison et deux ou trois affectations (de mémoire). Ces opérations sur les entiers se font en temps constant. Par contre si on veut trier un tableau de chaines de caractères, ces mêmes opérations sont dépendantes de la longueur des chaines (taille variable et à priori non connue) et donc la complexité totale en est affectée car la donnée de base sur laquelle on travaille n'est pas la chaine mais le caractère

2007-01-03 00:54:12 · answer #5 · answered by maurice 1 · 0 2

Salut !!

Je trouve ta question très pertinente.
J'y répondrais : potentiellement jamais.
En effet un algorithme complexe est un mauvais algorithme.

Tout dépend à 99% de l'analyse de l'algo.
Les données ne servent qu'à tester l'efficacité de ton algorithme et à prendre en compte les cas "spécifiques" comme des valeurs nulles par exemple.

Voilà bonne analyse et @+

2007-01-03 00:32:55 · answer #6 · answered by FifPower 4 · 0 2

Sans m'y connaître plus que ça en algorithme, je répondrais au plus logique en disant jamais (sauf si tu considères que le nombre de variables à prendre en compte dans l'algorithme fait partie des "données"...).
Que tu aies une observation ou 10 000, ça passe dans les mêmes si sinon, ou, et... la seule chose qui diffère c'est qu'avec une observation, tu as moins de chance de te rendre compte de tout ce que tu as oublié, donc l'algorithme, est d'une certaine manière, plus "facile" (incomplet...)...
Si je réponds à côté de la plaque, peux-tu préciser ta question...

2007-01-03 00:16:12 · answer #7 · answered by Mii M 2 · 0 2

quand est-ce que les gens vont arrêter de poser des questions si complexes ???? Arrêter de vous torturer les neurones!

2007-01-03 00:19:18 · answer #8 · answered by Lisa 2 · 0 5

fedest.com, questions and answers