"Si un ouvrier veut bien faire son travail, il doit d'abord affûter ses outils." - Confucius, "Les Entretiens de Confucius. Lu Linggong"
Page de garde > La programmation > Introduction à la notation DSA et Big O

Introduction à la notation DSA et Big O

Publié le 2024-10-31
Parcourir:336

Intro to DSA & Big O Notation

Notes pour maîtriser le DSA :

Le Master DSA sera « éligible » aux salaires élevés offerts aux S/w Ers.
DSA est la majeure partie du génie logiciel.
Avant d'écrire du code, assurez-vous de bien comprendre la situation dans son ensemble, puis approfondissez les détails.
Il s'agit de comprendre les concepts visuellement, puis de traduire ces concepts en code via n'importe quel l/g, car DSA est indépendant du langage.
Chaque concept à venir est en quelque sorte lié aux concepts précédents. Par conséquent, ne sautez pas de sujet et n'avancez pas à moins de maîtriser parfaitement le concept en le pratiquant.
Lorsque nous apprenons des concepts visuellement, nous obtenons une compréhension plus profonde du matériel, ce qui nous aide à conserver les connaissances plus longtemps.
Si vous suivez ces conseils, vous n'aurez rien à perdre.

Linear DS:
Arrays
LinkedList(LL) & Doubly LL (DLL)
Stack
Queue & Circular Queue

Non-linear DS:
Trees
Graphs

Notation grand O

Il est essentiel de comprendre cette notation pour comparer les performances des algos.
C'est une manière mathématique de comparer l'efficacité des algorithmes.

Complexité temporelle

Plus le code s'exécute rapidement, plus il sera bas
V. impt pour la plupart des entretiens.

Complexité spatiale

Rarement considéré par rapport à la complexité temporelle en raison du faible coût de stockage.
Doit être compris, car un intervieweur peut également vous le demander.

Trois lettres grecques :

  1. Oméga
  2. Thêta
  3. Omicron c'est-à-dire Big-O [vu le plus souvent]

Cas pour algo

  1. Meilleur cas [représenté à l'aide d'Omega]
  2. Cas moyen [représenté par Theta]
  3. Pire des cas [représenté à l'aide d'Omicron]

Techniquement, il n'y a pas de meilleur cas de cas moyen Big-O. Ils sont désignés respectivement par oméga et thêta.
Nous mesurons toujours le pire des cas.

## O(n): Efficient Code
Proportional
Its simplified by dropping the constant values.
An operation happens 'n' times, where n is passed as an argument as shown below.
Always going to be a straight line having slope 1, as no of operations is proportional to n.
X axis - value of n.
Y axis - no of operations 

// O(n)
function printItems(n){
  for(let i=1; i





## O(n^2):
Nested loops.
No of items which are output in this case are n*n for a 'n' input.
function printItems(n){
  for(let i=0; i
## O(n^3):
No of items which are output in this case are n*n*n for a 'n' input.
// O(n*n*n)
function printItems(n){
  for(let i=0; i O(n*n)


## Drop non-dominants:
function xxx(){
  // O(n*n)
  Nested for loop

  // O(n)
  Single for loop
}
Complexity for the below code will O(n*n)   O(n) 
By dropping non-dominants, it will become O(n*n) 
As O(n) will be negligible as the n value grows. O(n*n) is dominant term, O(n) is non-dominnat term here.
## O(1):
Referred as Constant time i.e No of operations do not change as 'n' changes.
Single operation irrespective of no of operands.
MOST EFFICIENT. Nothing is more efficient than this. 
Its a flat line overlapping x-axis on graph.


// O(1)
function printItems(n){
  return n n n n;
}
printItems(3);


## Comparison of Time Complexity:
O(1) > O(n) > O(n*n)
## O(log n)
Divide and conquer technique.
Partitioning into halves until goal is achieved.

log(base2) of 8 = 3 i.e we are basically saying 2 to what power is 8. That power denotes the no of operations to get to the result.

Also, to put it in another way we can say how many times we need to divide 8 into halves(this makes base 2 for logarithmic operation) to get to the single resulting target item which is 3.

Ex. Amazing application is say for a 1,000,000,000 array size, how many times we need to cut to get to the target item.
log(base 2) 1,000,000,000 = 31 times
i.e 2^31 will make us reach the target item.

Hence, if we do the search in linear fashion then we need to scan for billion items in the array.
But if we use divide & conquer approach, we can find it in just 31 steps.
This is the immense power of O(log n)

## Comparison of Time Complexity:
O(1) > O(log n) > O(n) > O(n*n)
Best is O(1) or O(log n)
Acceptable is O(n)
O(n log n) : 
Used in some sorting Algos.
Most efficient sorting algo we can make unless we are sorting only nums.
Tricky Interview Ques: Different Terms for Inputs.
function printItems(a,b){
  // O(a)
  for(let i=0; i





## Arrays
No reindexing is required in arrays for push-pop operations. Hence both are O(1).
Adding-Removing from end in array is O(1)

Reindexing is required in arrays for shift-unshift operations. Hence, both are O(n) operations, where n is no of items in the array.
Adding-Removing from front in array is O(n)

Inserting anywhere in array except start and end positions:
myArr.splice(indexForOperation, itemsToBeRemoved, ContentTobeInsterted)
Remaining array after the items has to be reindexed.
Hence, it will be O(n) and not O(0.5 n) as Big-O always meassures worst case, and not avg case. 0.5 is constant, hence its droppped.
Same is applicable for removing an item from an array also as the items after it has to be reindexed.


Finding an item in an array:
if its by value: O(n)
if its by index: O(1)

Select a DS based on the use-case.
For index based, array will be a great choice.
If a lot of insertion-deletion is perform in the begin, then use some other DS as reindexing will make it slow.

Comparaison de la complexité temporelle pour n=100 :

O(1) = 1
O(log 100) = 7
O(100) = 100
O(n^2) = 10 000

Comparaison de la complexité temporelle pour n=1000 :

O(1) = 1
O(log 1000) = ~10
O(1000) = 1000
O(1 000*1 000) = 1 000 000

Nous nous concentrerons principalement sur ces 4 :
Big O(n*n) : boucles imbriquées
Big O(n) : proportionnel
Big O (log n) : diviser pour mieux régner
Grand O(1) : Constante

O(n!) se produit généralement lorsque nous écrivons délibérément du mauvais code.
O(n*n) est horrible Algo
O(n log n) est acceptable et utilisé par certains algos de tri
O(n) : Acceptable
O(log n), O(1) : Meilleur

La complexité spatiale est presque la même pour tous les DS, c'est-à-dire O(n).
La complexité de l'espace variera de O(n) à O(log n) ou O(1) avec des algorithmes de tri

La complexité temporelle est ce qui varie en fonction de l'algorithme

La meilleure complexité temporelle pour le tri autre que les nombres comme la chaîne est O(n log n) qui est en tri rapide, par fusion, par temps, par tas.

La meilleure façon d’appliquer votre apprentissage est de coder autant que possible.

Sélectionner quel DS choisir dans quel énoncé de problème en fonction des avantages et des inconvénients de chaque DS.

Pour plus d'informations, reportez-vous à : bigoheatsheet.com

Déclaration de sortie Cet article est reproduit sur : https://dev.to/mahf001/intro-to-dsa-big-o-notation-5gm9?1 En cas de violation, veuillez contacter [email protected] pour le supprimer.
Dernier tutoriel Plus>

Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.

Copyright© 2022 湘ICP备2022001581号-3