i've wrote a function with a simple for loop in R after a while someone propose to me an other way to do the same thing but with dplyr.So I tryed and I saw a strong difference in the time used to run my script (- 1s !). I'm wondering from where does this huge difference of time used come. Is dplyr just way more optimized ? Is dplyr compiled in a sort of way that speed up the process ? I dont't know
my original function :
key.rythm <- function(key, data) {
## Un data frame vide pour recevoir les resultats
results <-
data.frame(
"down.time" = numeric(),
"duration" = numeric(),
"touche" = factor()
)
down.time <- NULL
## On est oblige de passer par une boucle pour parser ligne par ligne
for (i in 1:nrow(data)) {
if (data[i, "K.TOUCHE"] != key)
next
## Pour la bonne cle, si l'on rencontre un down, le stocker
##(ainsi, si l'on rencontre deux down de suite, sans up entre les deux,
##le premier sera effaee et seul le second comptera)
if (data$K.EVENEMENT[i] == "Key Down") {
down.time <- data$K.TEMPS[i]
} else {
## verifier si l'on a bien eu un down precedemment
if (is.null(down.time)) {
duration <- NA
down.time <- NA
} else{
## Calculer la duree entre down et up
duration <- data$K.TEMPS[i] - down.time
}
ligne <- c(down.time, duration)
results <- rbind (results, ligne)
## vider le down (en cas de deux up consecutifs, au cas ou)
down.time <- NULL
}
}
# 0 est considere comme FAUX on assigne que s'il y as des lignes
if (nrow(results)){
results$touche <- key
}
names (results) <- c ("down.time", "duration", "touche")
return(results)
}
and the dplyr way:
tmp<-group_by(filter (data,K.EVENEMENT == "Key Up"), K.TOUCHE)$K.TEMPS - group_by(filter (data,K.EVENEMENT == "Key Down"), K.TOUCHE)$K.TEMPS