Voici le synopsis de strspn
:
#include <string.h>
size_t strspn(const char *s1, const char *s2);
Il s'agit de la description et de la valeur de retour pour POSIX.1-2001 :
La fonction strspn() calcule la longueur (en octets) du segment initial maximal de la chaîne de caractères désignée par s1 qui est entièrement constitué d'octets de la chaîne de caractères désignée par s2.
La fonction strspn() renvoie l'information suivante longueur de s1 ; aucune valeur de retour n'est réservée pour indiquer une erreur.
C'est (presque) la même chose que dans POSIX.1-2017 :
La fonction strspn() calcule la longueur (en octets) du segment initial maximal de la chaîne de caractères désignée par s1 qui est entièrement constitué d'octets de la chaîne de caractères désignée par s2.
La fonction strspn() renvoie l'information suivante longueur calculée ; aucune valeur de retour n'est réservée pour indiquer une erreur.
Est-il possible qu'une implémentation de strspn
pour être conforme à la fois à POSIX.1-2001 et à POSIX.1-2017 ? Comment ?