Canalblog
Suivre ce blog Administration + Créer mon blog

blog collaboratif master info-com

Albums Photos
Archives
10 décembre 2009

Epsitémologie

Plan


I. Le Positionnement

A. personnel
B. institutionnel
C. scientifique/ épistémologique



II. La conception

A. recherche préalable-contexte- délimitation- sujet- corpus
B. Problématisation-hypothèses- variables
C. Méthode, méthodologies



III. La réalisation

A. Méthode quantitatives
B. Méthode kali

IV. Production et diffusion, l’organisation pratique

V. Conclusion : la vie après le mémoire






I. Le Positionnement

A/ Le positionnement personnel
B/ Le positionnement institutionnel

C/ Le positionnement épistémologique

1/ Vers une épistémologie des SHS


positionnement épistémologique : 1- histoire générale des sciences (ex : Newton)

2 - Science qui traite de condition d’émergence des concepts scientifiques,
qui se pose la question de la cognition.

- R* existe t-il une épistémologie des SHS ?
René Thom : co-inventeur de la théorie des catastrophes (= effet papillon).
«un certains nombre d’activité mentales, qui ne sont pas sure de leur statut, s’autoproclament sciences,
pour se convaincre de leur scientificité»
ex : Scienthologie, graphologie : > ne sont une science
Economie : pour lui science eco ne sont pas des sciences...
Les SHS n’ont que peu d’épistémologues. Les shs ont elles inventées des méthodes qui leurs soient
propres.
- Escarpy a créé la signalisation ou signalétique. à fondé la section universitaire, info-com (voir net)
- Abraham moles (théoricien de la com.) >> «les sciences de l’imprécis»
Abraham Moles (1920-1992) était ingénieur en électricité et en acoustique, docteur en physique et en philosophie.
Il enseigna la sociologie, la psychologie, la communication, le design ... à la Hochschule für Gestaltung
d’Ulm et dans les universités de Strasbourg, San Diego, Mexico, Compiègne,...
Il fut le fondateur de l’Institut de Psychologie Sociale des Communications à l’ULP, qui fut communément
appelée l’École de Strasbourg par les anciens étudiants devenus universitaires dans le monde entier et aujourd’hui
réunis dans l’Association Internationale de Micropsychologie et de Psychologie Sociale des Communications.

a/ Les vieux modèles épistémologiques :
- Modèles cartésiens, hypthético-déductifs.
Outils des statistiques de com des questionnaires, ont pour origine la science themodynamique.
- Modèle déterministes, prédictifs, semi-prédictifs (répétitif)
«les conditions de départ déterminent toujours les conditions d’arrivée»
- Tiers exclu
association de deux négatifs >>> positifs
Le tout est toujours égal à la somme des parties. un système ne peut produire autre chose que la somme des
éléments qui le composent.
sociologie française cotemporaine est fondamentalement déterministe.
b/ les modèles systémiques
- Logique du XX ème
- Logiquefloue - Théorie des catastrophe
- Modèles indéterministes, probabilistes
2/ Opposition ou complémentarité? un débat ouvert
Totale liberté.
3/ choix d’un positionnement
- originalité d’un Mémoire
II La conception
A/ recherche préalable - contexte - délimitation - sujet - corpus
B/ problématisation :
1 / Introduction généralen pk problématiser?
- On peut découvrir sans problématique
- Retours épistémologiques - les grands jalons de la science
Originalité sujet
Originalité méthodologie Originalité problématique
Originalité corpus
Les concepts de la logique de la complexité
Thermodynnamique
• Second principe de la thermodynamique ( carnot, 1824) : «L’entropie d’un système isolé ne peut que
croitre»
Physique :
• Relativité restreinte (Albert Einstein 1905) théorie de la relativité. il a fait voler en éclat l’idée que la
vérité existe en science. Toute observation se rapporte à un référentiel, un contexte.
• Relativité Générale : (Albert eistein, 1915) une réalité peut être connus en utilisant plusieurs, référentiels,
le plus grand nombre possible. Chaque hyppothèse sera un référentiel. (hyppothèse peut être quanti,
kali...)
• Mécanique quantique : (Max planck 1900, niels bohr 1913, Erwing et Shrödinger 1926)
• Mécanique ondulatoire (louis de broglie, 1928)
• Expérience EPR ( Einstein, podolsky, rosen 1935) à la base du holisme.
Sens lexical : doctrine ou point de vue qui consiste à considérer les phénomènes comme des totalités.
Sens général : Le concept holisme est parfois utilisé comme synonyme d’approche systémique ou de pensée
complexe. Les termes holisme, holistique, holiste tentent de faire partager une croyance en une totalité qui dépasse
l’expérience humaine limitée et peuvent secondairement servir de buzzword pour tenter de justifier des
positions peu étayées (Selon Stephen Barrett : «Les promoteurs du charlatanisme sont habiles dans l’usage de
slogans et de mots à la mode»). Expérience des electron déviés de leurs orbite, l’un du a un ostacle, l’autre non.
Idée que le mémoire de master n’a pas de fin, définitive.
2/ La définition de premier niveau
(problématique permet de juger de la faisabilité d’une recherche, sujette à la critique)
Définition de problématique : (doit etre compréhensible, simple, efficace, porteuse, attractive).
L’art de poser la bonne question. Idée d’association entre création et recherche.
Quand on créé et découvre >> sentiment de pleinitude - Immédiateté - perfection (film amadeus - fitzcaraldo)
francis crick >> ADN « j’ai su que c’était ça pasque c’était beau» hm hm
Opposition art/ science : science bassée sur des acquis... elle est cumulative. En art ce n’est pas forcément vrai.
Fractale : le plus petit élément comporte les informations de la totalité : ex : cellule
La bonne question est celle qui contient tous les éléments qui permettent de trouver la réponse.
3/ Grille de faisabilité de premier niveau :
Quand sait on que la problématique va être juste ?
Ruse épistémologique : Pour qu’une propriété soit vraie elle doit être démontrer de manière générale.
Il suffit de démontrer en un seul cas qu’une problématique n’est pas valide, pour qu’elle ne soit pas bonne.
a/ Les critères
- La «problématique» est - elle une question? Si non, elle n’est pas bonne. (r*: elle peut
être interro-négative, ou alternative)
- Cette question est-elle compréhensible?
«Ce qui se conçoit bien s’énnonce clairement, et les mots viennent aisément.» doineau ou boilot à voir
- Peut-ont y répondre par oui ou par non? si ce n’est pas le cas alors, la problématique
n’est pas bonne. (voir site JLM)
- La réponse n’est-elle pas trop évidente?
- Y-a-t-il des limites à la réflexion ou au corpus? La problématique, n’est elle pas trop
générale?
- Des stratégies de réponse apparaissent-elles envisageables. Sont-elles suggérées dans
la phrase.
(voir : Tautologie, Sfez)
- Un corpus se dégage t-il assez facilement? ( > corpus : matière utilisée pour faire le
rapport : books, interviews, questionnaires...)
- Les voie de validations apparaissent-elles envisageables dans des limites raisonnables?
- la question semble t-elle «originale»?
- La question s’inscrit-elle dans les domaines scientifiques de référence?
CL : Cette de grille de faisabilité n’est qu’un outil. Il faut donc apprendre à s’en servir. Elle n’est pas obligatoire
(mais vivement conseillée :). Elle doit être utilisée dans l’odre dans lequel elle nous est donnée.le fait
de remplir les dix critères ne valide pas forcément la problématique. Et si elle s’avère non validable, cette
problématique nous aura assuré un niveau de qualité nous conduisant à la réfuter, mais avec la garantie d’un
accueil à la mesure des effort déployer pour y parvenir. Il faut que cette pbtc de niv. 1 laisse ouvert le champ
de la réflexion au niveau 2 si on le souhaite.
(*R* : intro mémoire = 10 % du total de pages)
Complément épistémologiques : complexité et formalisation.
Quelques grands jalons de la démarche scientifique. lorqu’on se met dans l’état d’esprit de recherche, ne repasse
t-on pas par des raisonements qui ont déjà été pensés par d’autres.
(voir théorie de C.G.Jung : http://www.bouddhanalyse.com/bouddhanalyse/jung/JBio.htm >> sur l’inconscient
collectif.)
L’INCONSCIENT COLLECTIF (C. G. JUNG) :
Pour Jung, au-delà de l’inconscient personnel au sujet duquel il partage certaines idées avec Freud, il existe
aussi ce qu’il appela l’inconscient collectif , structuré notamment par les Archétypes qui sont porteurs d’images
primordiales , et représentant certains éléments instinctifs de la psyché primitive.
Il introduisit le terme de «complexe» qui sont pour lui, les symptômes de la part inaccomplie de l’individu.
Ces complexes dont chacun de nous a les siens propres dominants, proviennent de la collision, entre une nécessité
d’adaptation (le principe de réalité de Freud), et l’individu incapable de s’y soumettre. A propos de
l’Oedipe, Jung ne paele pas du complexe de castration, mais du complexe maternel ou paternel. Le complexe
maternel occupe chez Jung le devant de la scène, aux dépends du complexe paternel : «La structure de l’âme
est la condition préalable de l’existence. La mère, c’est la forme dans laquelle est toute l’expérience vécue. En
face d’elle, le père représente l’énergie».
Pour Jung, les effets typiques du complexe maternel mal ou non résolu chez le garçon, sont le «donjuanisme»
ou l’homosexualité, alors qu’ils engendrent chez la fille l’hypertrophie ou l’atrophie de sa féminité.
Le Moi conscient se situe à la jonction du monde intérieur (monde psychique) et du monde extérieur (monde
spatial). Autour de notre Moi gravite un certain nombre de «sous personnalités», dont les relations avec le Moi
évoluent au cours de la vie :
- La Persona (le masque). C’est la somme de toutes les attitudes conventionnelles adoptées par un individu,
aussi bien sur le plan professionnel, que social, ou affectif.
- L’Ombre . C’est l’ensemble des traits de la personnalité que l’individu cherche à cacher, aussi bien aux yeux
des autres, que des siens.
Ils appartiennent tous deux aux aspects relativement les plus extérieurs de l’individu, en lien avec l’inconscient
personnel.
Au centre, nous trouverons les Archétypes :
- L’Anima . C’est le principe féminin. Il désigne l’Ame et appartient, comme l’Animus, à l’inconscient collectif.
L’Anima s’oppose à la Persona. Plus l’individu a une Persona brillante, plus il sera démuni par rapport aux
questions de l’Anima. C’est la féminité constitutive inconsciente de l’homme, et son image. Dit autrement,
c’est la partie féminine inconsciente complémentaire de la masculinité de l’homme. Plus l’homme intègre son
anima, plus il développera une capacité créative et sensible.
- L’Animus . C’est le principe masculin. Il désigne le Vent, le souflle; l’Esprit. C’est la masculinité constitutive
inconsciente de la femme, et son image. Dit autrement, c’est la partie masculine inconsciente complémentaire
de la féminité de la femme. Plus une femme intègre son animus, plus elle développera une capacité d’action
et de réalisation.
L’Anima est de l’ordre du sentiment, et l’Animus de la pensée : «L’Anima de l’homme cherche à unir et à
rassembler, l’Animus de la femme cherche à différencier, et à reconnaître».
Quand l’Animus ou l’Anima fait alliance avec l’Ombre, il en résulte des conséquences négatives pour toute
relation, et plus particulièrement la relation amoureuse. (Voir article «Désir, Amour et Mythologie»).
- Le Soi . C’est le plus central des Archétypes qui cristallise la totalité; le Tout. Il peut être symbolisé par un
cercle ou un Mandala.
«Le Soi est non seulement le centre, mais aussi la circonférence complète qui embrasse à la fois conscient et
inconscient. Le Soi est le centre de cette totalité comme le Moi est le centre de la conscience».
C’est donc une totalité psychique résultant de l’unification du conscient et de l’inconscient. Jung pense que la
deuxième moitié de la vie d’un individu est la confrontation avec l’Archétype de l’Esprit et du Soi.
Quand l’Individuation , qui est le processus de différentiation et d’intégration intime qui permet l’ouverture
au monde et à l’autre, est achevée, le Moi n’est plus le centre de la personnalité, mais plutôt une planète qui
tourne autour d’un Soleil invisible : le Soi.
L’individu s’est alors trouvé lui-même et a appris à trouver des rapports authentiques avec les autres.
A la recherche de la structure :
Grecs premiers à poser des théories scientifiques
• Socrate :
Les formes pures sont en nous.
•Platon :
Mythe de la caverne : représentation du monde ; autre idée, la connaissance doit se partager...
Ex de la personne qui revient dans la caverne pour apporter la connaissance à ceux qui sont encore dedans.
• Aristote :
Monde de papier. Le monde n’existe pour nous que parceque nous le transcrivons.
• Pythagore :
La forme pure, l’enveloppe
Enveloppe : explication que l’on donne de qqch à la fois pour le décrire, mais aussi pour le conceptualiser >>
idée de modelisation. Idée de l’extrapolation d’idée.
• Archimède :
Les faits : ma médiation/ la méditation (simulation)
Quels sont les faits, qu’ai je pu observer.
Formalisation du réel :
• Galilée : Les confirment ce que nous savons déjà. (Intuition)
Il faut méditer sans perdre de vue les faits. Les fait doivent être pris en considération dans leur ensemble...
ils ne doivent pas être pris pour le simple fait qu’ils valident une théorie. Cela reviendrait a penser avec des
oeillère.
(Lyssenko : théoriede l’hérédité des caractères acquis .- Voir Lamarque- Dans son idée cette théorie
pouvait permettre de faire des jeunes sovietiques par caractères acquis. En fait cette théorie n’était que supercherie.)
• Descartes 1596 - 1650 : doute, dénombrement. Le discours de la méthode(1637).
Physicien, médecin, ...
Toute la science dépend de ce discours
Le Discours de la méthode (1637) [modifier]
Article détaillé : Discours de la méthode.
Descartes publia des extraits du Traité du monde et de la lumière (la Dioptrique, les Météores, la Géométrie)
et introduisit une préface, intitulée discours de la méthode, pour bien conduire sa raison et chercher la vérité
dans les sciences, qui est restée célèbre.
Intuition et déduction [modifier]
C’est à partir de ses intuitions des principes que Descartes propose de raisonner, c’est-à-dire de nous avancer
dans la connaissance au moyen de la déduction. La déduction est ainsi un mouvement de la pensée, consistant
en une série d’intuitions enchaînées, mises en relation par ce mouvement continu de l’esprit. Par ces séries
d’intuitions reliées par le raisonnement, nous ramenons ce qui est inconnu aux principes, c’est-à-dire à ce qui
est connu. Ainsi, en raisonnant sur la base de l’évidence, la pensée étend son domaine de connaissance au-delà
des principes.
La méthode de Descartes ne prétend pas déduire a priori les phénomènes. Mais c’est l’expérience des cas
particuliers qui met la pensée en mouvement, et cette pensée déduit et trouve de nouvelles connaissances.
Néanmoins, si ce ne sont pas les causes qui prouvent les effets, il reste que la vérité est établie par des déductions
à partir de principes, plutôt que par l’accord avec l’expérience. Ainsi Descartes est-il rationaliste quand
il estime que la déduction est par elle-même suffisante pour valider la connaissance, et que ce sont les causes
prouvées par l’expérience qui expliquent l’expérience. Cependant, lorsque l’expérience n’est pas conforme
à ses principes, Descartes préférera privilégier les principes plutôt que de se plier à la réalité des résultats
expérimentaux, parfois à l’excès. Sur ce point, Newton s’opposera au cartésianisme, attribuant la plus grande
importance à l’adéquation entre les théories scientifiques et les faits expérimentaux, quitte pour cela à ne
pas former d’hypothèses (par exemple sur la nature de la force gravitationnelle). La science est certes pour
Descartes un système hypothético-déductif s’appuyant sur l’expérience, mais il reste que pour lui il devrait
être possible de comprendre le monde physique par une théorie explicative complète prenant la forme d’une
algèbre universelle.
Cette méthode scientifique étant établie, se pose alors la question de savoir quels sont les premiers principes :
sur quoi notre pensée peut-elle se fonder pour s’assurer la certitude de ses connaissances ? Nous pouvons en
effet douter de toutes nos connaissances.
Dans la sixième partie du discours de la méthode, Descartes indique qu’il a cherché à trouver les « principes
ou premières causes de tout ce qui est ou qui peut être dans le monde, sans rien considérer pour cet effet que
Dieu seul qui l’a créé ».
La certitude que Descartes se propose de trouver est au contraire absolue, et c’est une certitude analogue à
celle des démonstrations mathématiques qui nous font voir avec évidence que la chose ne saurait être autrement
que nous la jugeons et qui ne donne pas prise au scepticisme :
« Ces longues chaînes de raisons, toutes simples et faciles, dont les géomètres ont coutume de se servir pour
parvenir à leurs plus difficiles démonstrations, m’avaient donné occasion de m’imaginer que toutes les choses
qui peuvent tomber sous la connaissance des hommes s’entresuivent en même façon, et que, pourvu seulement
qu’on s’abstienne d’en recevoir aucune pour vraie qui ne le soit, et qu’on garde toujours l’ordre qu’il faut pour
les déduire les unes des autres, il n’y en peut avoir de si éloignées auxquelles enfin on ne parvienne, ni de si
cachées qu’on ne découvre. »
Ainsi, par le nom de science, Descartes n’entend-il rien d’autre qu’une connaissance claire et distincte. Le
point de départ de la théorie de la connaissance, ce qui sera retenu tout particulièrement par un cartésien
comme Nicolas Malebranche, c’est la simplicité et la clarté des premiers éléments. Mais cette pensée de l’évidence
serait vide si elle ne prenait pour matière l’expérience, et ne procédait par induction, c’est-à-dire par
l’énumération des éléments d’une question à résoudre. Seule une telle connaissance, en augmentant notre savoir,
« en formant notre esprit à porter des jugements solides et vrais sur tout ce qui se présente à lui » (Règles,
I) peut nous permettre de posséder toute la certitude et la vérité dont notre esprit est capable.
C’est pourquoi il faut dire également que toutes nos connaissances dépendent de notre entendement, et que
ce dernier procède de la même manière dans toutes les sciences. Il y a ainsi pour Descartes une unité de la
méthode, et il ne peut y avoir qu’une méthode vraie qui exprime l’unité et la simplicité essentielle de l’intelligence
: la méthode en est la manifestation ordonnée.
Préceptes de la méthode [modifier]
Les règles de la méthode sont ainsi présentées par Descartes dans le Discours de la méthode :
«[…] comme la multitude des lois fournit souvent des excuses aux vices, en sorte qu’un état est bien mieux
réglé lorsque, n’en ayant que fort peu, elles y sont fort étroitement observées ; ainsi, au lieu de ce grand
nombre de préceptes dont la logique est composée, je crus que j’aurais assez des quatre suivants, pourvu que
je prisse une ferme et constante résolution de ne pas manquer une seule fois à les observer. »
* l’évidence :
« Le premier était de ne recevoir jamais aucune chose pour vraie que je ne la connusse évidemment être
telle ; c’est-à-dire, d’éviter soigneusement la précipitation et la prévention, et de ne comprendre rien de plus en
mes jugements que ce qui se présenterait si clairement et si distinctement à mon esprit, que je n’eusse aucune
occasion de le mettre en doute. »
* l’analyse :
« Le second, de diviser chacune des difficultés que j’examinerais, en autant de parcelles qu’il se pourrait, et
qu’il serait requis pour les mieux résoudre. »
* la synthèse et le raisonnement :
« Le troisième, de conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus
aisés à connaître, pour monter peu à peu comme par degrés jusques à la connaissance des plus composés, et
supposant même de l’ordre entre ceux qui ne se précèdent point naturellement les uns les autres. »
* le dénombrement :
« Et le dernier, de faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré
de ne rien omettre. »
Théorie du doute : idée du baton dans un verre d’eau >>> empirisme n’est pas source de connaissance.
Le doute est un système de pensée. Il faut éviter les présupposés.
«Pour bien conduire sa raison et chercher la vérité dans les sciences»
- le principe de dénombrement : Le second de diviser, chacune des difficultés que j’examinerai,
en autant de parcelle qu’il se pourrait, et qu’il serait requis pour les mieu résoudre.
- La récurence : Le troisième, de conduirepar ordre mes pensées, en commençant par les
objets les plus simples, et les plus aisésà connaitre, pour monter peu à peu, comme par degrés jusques à la
connaissances des plus compés, et supposant même de l’ordre entre ceux qui ne se précèdent point naturelement
les uns les autres.
- de faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré
de ne rien omettre
• Newton : description mathématique du réel, postulat de la force de gravitation
• Leibniz : Variables et «paramètres». Théorie et théologie. Difficulté de pensé plus de trois variables
(trop complexe). Pour leibniz, il faut transformer les variables en paramètres.
• Bachelard : Place de et role de l’innovateur; principe de germination.. Faire germer l’idée, la pensée.
B/ La logique
Branche des math la plus abstraite, science de la cohérence dans le raisonnement.
«le grec dit , tous les grecs sont menteurs» >> non sens...
• Syllogisme : En logique aristotélicienne, le syllogisme est un raisonnement logique à deux propositions
(également appelées prémisses) conduisant à une conclusion qu’Aristote a été le premier à formaliser.
Par exemple, Tous les hommes sont mortels, or les Grecs sont des hommes, donc les Grecs sont mortels est un
syllogisme ; les deux prémisses (dites « majeure » et « mineure ») sont des propositions données et supposées
vraies, le syllogisme permettant de valider la véracité formelle de la conclusion. La science des syllogismes est
la syllogistique, à laquelle, entre autres, se sont intéressés les penseurs de la scolastique médiévale, mais aussi
Antoine Arnauld, Gottfried Leibniz et Emmanuel Kant. Elle est l’ancêtre de la logique mathématique moderne
et a été enseignée jusqu’à la fin du XIXe siècle.
• Principe d’incertitude (Heisenberg) 1925
«plus on en sait sur une variable, moins on en sait sur une autre»
= toute observation d’un phénomène le modifie.
Rapport à l’atome d’hydrogène : distance avec le noyau, et sa position sur l’ellipse. si on connait une variable
alors on ne connait pas l’autre.
• principe d’imcomplétude 1931
Tout système parfait est imparfait = plus je vise la perfection en terme de connaissance, et plus je
m’éloigne de la vérité.
• principe d’indécidabilité 1936
«plus on a d’éléments, moins la décision est fiable» church
• énonciation des «sciences de l’imprécis» A moles, 1991
4/ La définition de second niveau
La problématique = c’est l’émergence la plus forte d’une combinatoire d’hypothèses
regroupées dans une perspective fonctionnelle et opératoire.
Michel-Ange «il faut bcp de travail pour effacer les traces du travail...»
• émergence = causalité qui va apparaitre dont les éléments ne sont ni perceptibles, ni dénombrables...
lors d’une observation un évènement peut apparaitre sans qu’il soit attendu.
• problématique = toute les variable du système.
• Hypothèse = une parties de ces variables.
(voir descartes, possibilité d’tablir des sous hypothèses dans le cas ou l’hypothèse et difficilement observable
dans son ensemble.)
une hypothèse, peut être le référentiel.
• Combinatoire = il doit y avoir des relations entre les variables des différentes hyppothèses. certaines
variables d’une hyppothèse, se retrouveront aussi dans une seconde voir une troisième hypothèse.
Capacité des hypothèses à avoir des variables communes afin de montrer la cohérence de la problématique.
• Perspective fonctionnelle = le raisonnement peut s’appliquer a toute réalité périphérique. Il pourra
donc être considéré comme un modèle adaptable. Il fonctionne dans des condition proche.
• Opératoire = structure tellement puissant qu’il pourra s’appliquer moyennant qqes adaptations à des
univers totalement distincts, de l’univers de référence (= mode de raisonnement transposable).
idée : dialectique entre stratégie de communication et stratgie globale de l’entreprise.lequel influence l’autre.
La stratégie de communication peut-elle servir de cadre structurel à la réflexion stratégique globale d’une
entreprise.
5/ Grille de faisabilité de second niveau
a/ le nombre de variables paraît-il cohérent avec l’ampleur du problème traité?
- Bon mémoire Dix-douze variables
- bibliographie
b/ La question de dépendance des variables at-elles été suffisament bien traitée?
c/ La combinatoire des hypothèses en est-elle une? Ne s’agit-il pas d’une simple juxtaposition?
d/ La problématique a-telle vraiment un caractère fonctionnel?
e/ La problématique a-telle éventuellement un caractère opératoire?
6/ La question des variables
7/ La définition de troisième niveau
- Popper, réfutabilité, testing
Règles de base pour construire sa méthode. (méthodologie)
Elle se construit, elle doit être personnelle.
• Observation attentive du terrain. «cf le stage.» ou encore bibliographie
• Prise de distance - distanciation / identification. Il faut tout de même faire l’effort de se détacher du
stage passer au dessus.
• Choix des outils. quels outils mobiliser pour valider ma problématique et mes différentes hyppothèses.
Notion de référentiel. il faut donc utiliser un outils associé à un référentiel. Choix déterministe et
quantitatif carnot bolsman ont inventer l’outil statistique (> thermodynamique. cette notion fut ensuitte
transposée dans les sciences humaines), les conditions de départ détermine le condition d’arriver (berta
Karl Ludwig von Bertalanffy / Choix adéterministe et qualitatif (systémique).
Questionnaire, entretien, observation participante >>> outils le chercheur doit apprendre à se fabriquent
leut propres outils
• Détermination de l’usage et de la combinaison de ces outils
• Construction de classifications taxinomie et typologie
- La taxinomie ou taxonomie est la science qui a pour objet de décrire les organismes vivants et de
les regrouper en entités appelées taxons afin de pouvoir les identifier puis les nommer, et enfin les classer.
Elle complète la systématique qui est la science qui organise le classement des taxons et leur relations. Parmi
ces méthodes, les plus récentes incluent une nouvelle approche conceptuelle de la classification mais aussi des
méthodes d’analyse d’éléments empiriques restés longtemps ignorés de la science avant l’arrivée, au cours de
la seconde moitié du XXe siècle, des découvertes de la biologie moléculaire.
La taxonomie s’étend maintenant à d’autres sciences, entre autres les sciences humaines, les sciences de l’information
ou l’informatique[1].
Émile Littré, dans son Dictionnaire de la langue française (version 1872-1877) précisait que le mot « taxionomie
» pouvait aussi être utilisé, et l’usage du terme « taxonomie », formé sur taxon au lieu de taxis est très
répandu. Ce mot aurait été créé par le botaniste suisse A. P. de Candolle, dans son Traité élémentaire de la
botanique publié en 1813 [2]. Pour le TLFI : «l’Académie des Sciences déconseille l’anglicisme taxonomie».
Le Grand dictionnaire terminologique confirme que taxinomie est recommandé par plusieurs auteurs considérant
«taxonomie» comme «un calque de l’anglais taxonomy». Cependant la plupart des dictionnaires anglais
affirment que le mot taxonomy dérive du français[3
- Une typologie est une démarche, souvent scientifique mais fondée sur une étude, consistant à définir
un certain nombre de types afin de faciliter l’analyse, la classification et l’étude de réalités complexes.
Par extension, le terme typologie désigne parfois la liste des types propres à un domaine d’étude.
• Remise en cause éventuelle de la démarche
• Fixation d’un calendrier de travail et des plans afférents
• Application de quelques de la gestion de projet
Karl Ludwig von Bertalanffy (19 septembre, 1901, Vienne, Autriche - 12 juin, 1972, New York, É.-U.) est
un biologiste fondateur de la théorie générale des systèmes au travers de son oeuvre General System Theory.
Citoyen autrichien, il a dû travailler aux États-Unis. Cependant, il a éprouvé une discrimination dans le milieu
académique américain du fait qu’il a refusé de se dépeindre comme une victime du nazisme et il est revenu
travailler en Europe. Austro-canadien, il a principalement travaillé au Canada depuis 1949[1]
Ludwig von Bertalanffy, biologiste, a présenté, dès 1937, le concept de «système ouvert» qui évoluera petit à
petit vers la «théorie générale des systèmes» (General System Theory).
* « […] Le but de cette théorie générale était de dégager des principes explicatifs de l’univers considéré
comme système à l’aide desquels on pourrait modéliser la réalité. Bertalanffy proclamait alors: «...il y a des
systèmes partout» ».
Ceci revient à dire que l’on peut observer et reconnaître partout des objets possédant les caractéristiques des
systèmes. C’est-à-dire des totalités dont les éléments, en interaction dynamique, constituent des ensembles ne
pouvant être réduits à la somme de leurs parties. Citant Bertalanffy (1968, p.220), Jean-Louis Le Moigne[2]
écrit:
* « […] De tout ce qui précède, se dégage une vision stupéfiante, la perspective d’une conception unitaire
du monde jusque là insoupçonnée. Que l’on ait affaire aux objets inanimés, aux organismes, aux processus
mentaux ou aux groupes sociaux, partout des principes généraux semblables émergent. »
En collaboration avec l’économiste Boulding, le physiologiste Gerard et le mathématicien Rapoport, Bertalanffy
fonde, en 1954, la «Société pour l’Étude des Systèmes Généraux» dont les objectifs consistent :
* « à rechercher l’isomorphisme des concepts, des lois et des modèles dans les différents domaines, et à
favoriser leurs transferts d’un domaine à l’autre »;
* « à encourager l’élaboration de modèles théoriques adéquats dans les domaines qui en sont dépourvus »;
* « à éliminer les duplications des travaux théoriques dans différents domaines »;
* « à promouvoir l’unité de la science en améliorant la communication entre les spécialistes »[3].
En plus de travailler à la réalisation de ces objectifs ambitieux, la société créa un cahier annuel, le «General
Systems Yearbook», et favorisa la publication d’un nombre impressionnant d’articles traitant de la systémique.
La théorie des systèmes : est un principe selon lequel tout est système, ou tout peut être conceptualisé
selon une logique de système.
Ce principe est formalisé en 1968 par Ludwig von Bertalanffy dans General System Theory, mais les bases
sont multiples, la principale étant certainement le mouvement cybernétique.
Ces théories ont permis l’établissement de la systémique en tant que méthode scientifique, et la base théorique
associée est aujourd’hui plutôt appelé théorie systémique.
L’entretien, relvé d’occurence, champ lexicaux
Exemple de problématiques
H1 : Les sites d’opinions de consommateurs sont suffisamment indépendants des
marques et des entreprises commerciales pour assurer une réelle crédibilité et
fiabilité à leur contenu. magnifique trop beau
hypothèse 1 : les sites d’opinion de consommateurs sont suffisament indépendantdes marques et des
entreprises commerciales pour assurer une réelle crédibilitéet fiabilité à leur contenu.
hypothèse 2: Les prescriptions écrites par des consommateurs amateurs sont de qualité suffisante pour
orienter de décision d’achat.
hypothèse 3 : La dynamique communautaire des sites d’opinions de consommateurs garanti une certaine
crédibilité aux prescriptions diffusées.
hypothèse 4 : les cyber consommateurs accordent davantage leur confiance aux prescription émises
sur les sites d’opinions plutot qu’aux discours experts des journalistes
hypothèse 5 : Les sites d’opinions de consommateurs affectent les journaux consumméristes qui les
perçoivent comme une menace
CHAP III La réalisation
Le plan est évolutif avec le travail qui est réalisé
A.Méthodes quantitatives
• Observation des variables et consignation des résultats. L’observation directe n’est pas toujours possible,
il faut donc se fier à des témoignage (recherche bibiographique).
• Mesures (directes et indirectes) Mole, science de l’imprécis «la mesure est un luxe de l’imprécis»
principe d’incertitude eizenberg
Le principe d’incertitude fut énoncé au printemps 1927 par Heisenberg lors des balbutiements de la mécanique
quantique.
Le terme «incertitude» est le terme historique pour ce principe. Le nom de Théorème d’indétermination est
parfois préféré car le principe ne porte pas sur l’ignorance par l’expérimentateur de grandeurs, mais bien sur
l’impossibilité de les déterminer, et même d’affirmer qu’une détermination plus précise existe. De plus, ce
principe étant prouvé par les équations, il devient un théorème.
Les travaux de Planck, Einstein et De Broglie avaient mis à jour que la nature quantique de la matière entraînait
l’équivalence entre des propriétés ondulatoires (fréquence et vecteur d’onde) et corpusculaires (énergie et
impulsion) selon les lois : E=\hbar \omega et \vec{p}=\hbar \vec{k}.
La dualité onde-corpuscule confirmée alors par de nombreuses expérimentations posait un problème de fond
aux physiciens. En effet, pour posséder une fréquence et un vecteur d’onde, un objet doit avoir une certaine
extension en espace et en temps. Un objet quantique ne peut donc être ni parfaitement localisé, ni avoir une
énergie parfaitement définie.
De manière simplifiée, ce principe d’indétermination énonce donc que — de façon assez contre-intuitive du
point de vue de la mécanique classique — pour une particule massive donnée, on ne peut pas connaître simultanément
sa position et sa vitesse. Soit on peut connaître précisément sa position (par ex: à ± 1 mm) contre
une grande incertitude sur la valeur de sa vitesse (par ex: à ± 100 m/s), soit on peut connaître précisément sa
vitesse (par ex: à ± 0,0001 m/s) contre une grande incertitude sur la valeur de sa position (par ex: à ± 1 km).
Cependant, si on renonce à considérer la particule en tant qu’objet corpusculaire, l’énoncé de ce principe devient
plus intuitif. L’objet quantique ayant une certaine extension dans l’espace et une certaine durée de vie en
temps, on le représente alors, non plus par un ensemble de valeurs scalaires (position, vitesse), mais par une
fonction décrivant sa distribution spatiale. Toute l’information relative à la particule est contenue dans cette
fonction d’onde. Les mesures scalaires effectuées sur cette particule consistent à extraire seulement une partie
de cette information, par l’intermédiaire d’opérateurs mathématiques.
•recoupement des variables
• Vérification des donnée non (ou baiblement) quantifiées
• Les corrélations
En probabilités et en statistique, étudier la corrélation entre deux ou plusieurs variables aléatoires ou statistiques
numériques, c’est étudier l’intensité de la liaison qui peut exister entre ces variables. La liaison recherchée
est une relation affine. Dans le cas de deux variables numériques, il s’agit de la régression linéaire.
Une mesure de cette corrélation est obtenue par le calcul du coefficient de corrélation linéaire. Ce coefficient
est égal au rapport de leur covariance et du produit non nul de leurs écarts types (en anglais standard deviations).
Le coefficient de corrélation est compris entre -1 et 1.
• Les ratios :
Ce sont des outils de comparaison qui visent à analyser la gestion, la rentabilité et la structure financière
de votre entreprise.
Les ratios contribuent à déceler rapidement les forces et les faiblesses de votre entreprise en ce qui concerne
son autonomie et son indépendance financière, ses performances, sa solvabilité et sa trésorerie.
Il existe de multiples possibilités pour établir des ratios. Sont présentés ci-après des ratios de structure financière,
des ratios de performance et des ratios de trésorerie.
• Les pré-test et post-test permettent de tester et de roder les outils quantitatifs
• Représentativité - population (il est administré...)
on ne parle pas de pourcentage si il n’y a pas au moins 100 cas.
dans les pourcentages si on atteind pas un seuil de marge d’erreur de 12 à 15, on est dans le raisonnement
erroné.
10 000 questionnaires ... = marge d’erreur 1 %
500 questionnaires = marge d’erreur 7 %
Questionnaires deux trois doivent mis en annexes, ils doivent etre amenés en soutenance dans leur totalité.
• Stratégie de questionnement :
Elle ne sont pas toutes analysées et dépuillées questions de justifications du questionnaire, elle permette à la
personne questionnée de mieu comprendre le questionnaire.
- Question en surnombre
- Place des questions importantes (règle des trois tiers, premiers tiers pas de question importante)
les première question permettent donc de créer une certainnes connivence
- Tests : tester le questionnaire autant de fois que possible, voir drecteur de soutenance. (attention
à l’orthographe)
- Outils spécifiques QCM QRL question a reponse Libre.
- différentiel sémentique (Osgood) : Echelle d’attitude consistant à demander aux répondants
de se situer quelque part entre deux adjectifs de sens parfaitement opposés (agréable/désagréable,
moderne/
désuet...).
Très utilisée en marketing, notamment pour l’évaluation d’une image.
Les applications du différentiel sémantique en marketing, «Bulletin Suisse de Linguistique Appliquée»,
LXXXIII/2, 2006, pp. 225-233.
Sara CIGADA, Les applications du différentiel sémantique en marketing, «Bulletin Suisse de Linguistique
Appliquée», LXXXIII/2, 2006, pp. 225-233.
L’idée du différentiel sémantique, qui s’inscrit dans le cadre du béhaviorisme, a été développée par Osgood,
Suci et Tannenbaum (1957), qui calculent le «signifié émotif» d’un mot. Leur méthode consiste en l’association
d’adjectifs en opposition binaire au mot à tester selon une échelle évaluative de sept degrés. Très utilisée
en marketing, cette technique fournit des résultats concrets sur les réactions des clients potentiels vis-à-vis du
produit testé, de son image et du nom qui lui est attribué. The Measurement of Meaning constitue un texte-clé
pour la recherche sur la connotation même s’il existe une différence entre le «signifié émotif» de Osgood et
al. et le «signifié émotionnel» que la connotation implique: le premier n’est que le «sentiment» effectif que
le mot suscite chez le destinataire, alors que le second concerne plus spécialement la valeur d’émotion que le
mot possède de par lui-même. Comme l’observe Sara Cigada, la méthode empirique de Osgood et al. pourrait
faire la lumière sur le lien existant entre l’expression (émotionnelle) et l’implication (émotive), mais ce qui
est valable en psychologie ne l’est pas en linguistique: aucun rapport d’argument/prédicats ne subsiste entre le
mot testé et les couples d’adjectifs. L’auteure trace ainsi les possibilités d’amélioration de cette méthode sur
le plan linguistique.
QRL >> voir relevé d’occurence
demander aux personnes ce qu’elle auraient voulu nous dire et auxquelles nous n’avons pas penser a poser la
question... cela rassure le questionné. cela montre l’intéret que l’on porte a son raisonnement
Logiciel de dépouille, sphinx, modalisa, etnos, excel
(mémoire master questionnaire entre 10 et 20 questions.)
1. Autres méthodes «pré-quantitative»
• Les entretiens préalables
• Les entretiens d’évaluation chiffrés (auto-évéluation)
• Les entretiens méthdologisés
- Analyse du contenu : L’analyse de contenu est une des méthodologies qualitatives utilisées
dans les sciences sociales et humaines. L’on retrouve par exemple des approches en analyse de contenu
en sociologie, en communication, en linguistique, en psychologie.
http://fr.wikipedia.org/wiki/Analyse_de_contenu
- Analyse de discours: L’analyse de discours est une approche méthodologique des
sciences sociales et humaines. L’analyse de discours est une approche multidisciplinaire qualitative et quantitative
qui étudie le contexte et le contenu du discours oral ou écrit.
http://fr.wikipedia.org/wiki/Analyse_du_discours
Résumé 1974 jean michel coteret:
Professeur agrégé de droit public et de sciences politiques, Jean-Marie Cotteret se spécialise dans la communication
politique et fonde en 1978 la « Revue française de la communication ».
L’ouvrage présent s’attache à noter les évolutions qu’a connues la communication politique, pratique ancestrale.
En effet, si elle n’est étudiée en tant que telle dans la recherche scientifique et au sein des universités que
depuis une trentaine d’années, la communication politique est présente depuis que la politique existe, et J-M
Cotteret remarque qu’on s’y intéressait particulièrement aux temps de la Grèce antique.
L’auteur permet de comprendre, d’une manière assez pédagogique, les différentes étapes de la construction
d’un discours politique.
(analyse du niveau de langue, des champs lexicaux)
- En 1974 mittérand avec un discours bcp élaboré que giscard, notamment en nombre de mots
- Basic french : 2500 mots
- Bon communicants : 10 000 mots
- Fin lettré : 15 000 mots
- Victor hugo : 40 000 mot
1981
Giscard : «vous être l’homme du passé»
Mitterand : «vous êtes l’homme du passif»
Lexico : logiciel analyse sémiotique (relevés d’occurance) possibilité de le faire sur word >> remplacement
d’un terme, cela donne le nombre de fois qu’il a été changé et donc le nombre de fois qu’apparait un mot
2. Analyse ou mesure d’objet divers (archives, rapports films...)
C’est le fait de quantitifier, tel ou tel fait ou événement dans une communication.
3. Micro-technique disciplinaires
4. Représentation graphique
Il doivent être représentatif, dire qqch.être pertinants (voir mapping)
CL : lors de questionnaire bien penser a soumettre en avance ce questinnaire.
A.Méthodes qualitative
Considérées comme étant plus modernes. Cette méthode souffre du fait qu’elle n’est pas scientifique.
Prendre le risque de confondre une corrélation et et un lien de cause à effet. Il est possible de créer de la fausse
science.
abraham Mole dans les science de l’imprécis, montre qu’il est possible de créer un raisonnement sicentifique,
logique et cohérent sans pour autant passer par les méthodes quantitatives.
Les sciences de l’imprécis - Description Fiche technique Résumé Un essai d’épistémologie sur le statut du
savoir scientifique et ses limites. Avec des exemples empruntés aussi bien aux scie nces sociales et humaines
qu’aux sciences dites exactes. Quatrième de couverture Sciences Le mot «science» évoque d’emblée un ensemble
de faits précis, de lois rigoureuses et cohérentes, de corrélations fortes. Les concepts flous, les phénomènes
vagues, les relations imprécises sont-elles pour autant en dehors du champ scientifique ? En développant
une véritable méthodologie de la connaissance incertaine, à partir d’exemples empruntés aux sciences
sociales et humaines, mais aussi aux sciences qu’on dit (trop vite) exactes, Abraham A. Moles montre que
l’imprécis peut être maîtrisé et devenir objet de science. Ce livre est tout à la fois un essai d’épistémologie provocant
sur le statut du savoir scientifique et un outil de travail fort concret pour tous ceux qui sont confrontés
à la difficile tâche de produire ce savoir - ou de I’assimiler
1. Les entretiens : analyse littéraire, analyse argumentative, analyse sémiotique et sémentique.
Comment les transcrit-on ?
analyse psychologique : in extenso / Verbatim
(Verbatim est un mot qui vient du latin verbum, qui désigne un mot. Employé comme adverbe, il signifie « textuellement
» ou « mot pour mot » ou encore « texto ». Employé comme nom commun (au masculin) il désigne
une citation textuelle, mot à mot d’une allocution ou d’un discours.)
C’est donc une analyse exhaustive.
Jean William Fritz Piaget, (9 août 1896 à Neuchâtel - mort le 16 septembre 1980 à Genève), est un psychologue,
biologiste, logicien et épistémologue suisse connu pour ses travaux en psychologie du développement
et en épistémologie avec ce qu’il a appelé l’épistémologie génétique.
Lors d’un entretiens, il faut en compte et noter la date l’heure, les condition. il faut aussi penser à enregistrer
sur magnéto, mais aussi prendre des notes notamment le minutage. Il faut prendre un maximum de
notes. puis résumer.
2. observation participante :
Voir claude levistrauss
Claude Lévi-Strauss, né le 28 novembre 1908 à Bruxelles[1], mort le 30 octobre 2009 à Paris[2],[3] est un
anthropologue et ethnologue français qui a exercé une influence décisive sur les sciences humaines dans la
seconde moitié du XXe siècle en étant notamment l’une des figures fondatrices de la pensée structuraliste.
Professeur honoraire au Collège de France, il en a occupé la chaire d’anthropologie sociale de 1959 à 1982.
Il était également membre de l’Académie française dont il était devenu le premier centenaire[4].
Depuis ses premiers travaux sur les Indiens du Brésil, qu’il avait étudiés sur le terrain entre 1935 et 1939, et la
publication de sa thèse Les Structures élémentaires de la parenté en 1949, il a produit une oeuvre scientifique
dont les apports ont été reconnus au plan international[5]. Il a ainsi consacré une tétralogie, les Mythologiques,
à l’étude des mythes. Mais il a également publié des ouvrages qui sortent du strict cadre des études
académiques, dont le plus célèbre, Tristes Tropiques, publié en 1955, l’a fait connaître et apprécier d’un vaste
cercle de lecteurs.
Exemple de l’élève qui qui a fait un mémoire sur la récupération de points. qui s’est faite passer pour une
personne qui venait récupérer ses points.
3. reprsentation graphique «arbitraire»
4. Analyse comparée : (lorsque l’on a pas assez d’info sur le domaine même, on le compare a un
domaine proche, et que l’on essaie d’en tirer des conclusion)
5. Analyse systémique : est précisément l’analyse faite selon les principes de la systémique, un
champ interdisciplinaire relatif à l’étude d’objets complexes réfractaires aux approches de compréhension
classiques.
En particulier, dans certains cas, le schéma de causalité linéaire classique n’est pas opérant pour rendre compte
du fonctionnement d’un ensemble, qu’il s’agisse d’un être vivant, d’un système électronique de régulation de
température, ou autre.
Face à ce type de problème, il est nécessaire d’adopter :
* une démarche globale, en s’attachant davantage aux échanges entre les parties du système qu’à l’analyse
de chacune d’elles
* en raisonnant par rapport à l’objectif du système (téléologie)
* en établissant les états stables possibles du système
5. Modélisation :
Carte du tendre scudery
Dans les sciences hiumaines et sociales, la mmodélisation a un statut hybride. C.AD, pour certaines
disciplines elle est tout a fait reconnue... Pour d’autres non.
Pour certains ce n’est pas un outil adapté.
La science économique utilise particulièrement la modélisation
Il en va de même pour la géographie, ainsi que la psychologie.
Les sciences humaines qui ne modélisent pas ou peu sont :
- L’histoire
- La sociologie (particulièrement en France)
- l’ethnologie et l’antropologie (levi strauss : théorie structurale
ex : Les Structures élémentaires de la parenté
La modélisation provient à l’origine des science et des techniques notamment des études aérodynamique.
La modélisation, intervient notamment dans les simulateurs (comme les jeux vidéos), par exemple le jeu «civilisation
», ou encore myst.
Le modèle, se rapproche de plus en plus de la réalité. Mais il s’en rapproche de plus en plus mais on ne le
confond jamais avec elle.
Auteurs : Prigogine, isabelle stengerd, judith slenger
Claude Lévi-Strauss, né le 28 novembre 1908 à Bruxelles, mort le 30 octobre 2009 à Paris[2],[3] est un anthropologue
et ethnologue français qui a exercé une influence décisive sur les sciences humaines dans la
seconde moitié du XXe siècle en étant notamment l’une des figures fondatrices de la pensée structuraliste.
Professeur honoraire au Collège de France, il en a occupé la chaire d’anthropologie sociale de 1959 à 1982. Il
était également membre de l’Académie française dont il était devenu le premier centenaire.
Depuis ses premiers travaux sur les Indiens du Brésil, qu’il avait étudiés sur le terrain entre 1935 et 1939, et la
publication de sa thèse Les Structures élémentaires de la parenté en 1949, il a produit une oeuvre scientifique
dont les apports ont été reconnus au plan international. Il a ainsi consacré une tétralogie, les Mythologiques,
à l’étude des mythes. Mais il a également publié des ouvrages qui sortent du strict cadre des études académiques,
dont le plus célèbre, Tristes Tropiques, publié en 1955, l’a fait connaître et apprécier d’un vaste cercle
de lecteurs.
1. La modélisation «intellectuelle» : cette modélisation se passe dans l’esprit (le cerveau), elle
est difficile a se représenter : manière dont le chercheur va réfléchier, se représenter ce qu’il étudie.
Au niveau des outils, il y a la pensée. le langage. on appelle cela la chaine rectilinéaire.
leroigourhan : André Leroi-Gourhan (25 août 1911 à Paris - 19 février 1986 à Paris) est un ethnologue, archéologue
et historien français, spécialiste de la préhistoire. C’est aussi un penseur de la technologie et de la
culture, qui sait allier précision scientifique et concepts philosophiques.)
il a fait de nombreuses études sur le développement de l’espèce humaine.
«nous nous slibérons sans cessse du continuom auquel nous sommes contraint»
se libèrera t - on de l’écrit.
La pensée structurée de mots, laissera certainnement sa place à la pensée graphique. CF codage text >> codage
objet.
Voir aussi «shématologie», estivals
(Myst) (Civilisation)
- Pensée (logique ou circuliare) ou non linéaire. Cela arrive lorsque une indée conséquence peut devenir
cause.
- Pensée sémantique (réseau sémantique) : comment un cerveau créé des association d’idée. représentation
théorique. les réseaux sémantiques : plus on les développe, plus on retarde le vieillissement cérébrale
Les réseaux sémantiques ne s’effacent pas dans l’esprit, même quand ils sont mis en état de latence dans notre
esprit.
Un réseau sémantique est une structure de graphe dont la fonction est l’encodage des connaissances
taxonomiques concernant des objets ainsi que leurs propriétés.
Dans un réseau sémantique, existent deux types de noeuds :
* les noeuds étiquetés par des constantes de concepts (représentant des catégories taxonomiques - cf rectangles
jaunes et roses sur l’image) ;
* les noeuds étiquetés par des constantes d’objets (représentant des instanciations des concepts ou des propriétés
des concepts - cf rectangles verts biseautés et bleus oblongs sur l’image),
et trois types d’arcs connectant les noeuds :
* les arcs d’agrégation (appelés aussi «liens isa (IS A)» - cf liens orange sur l’image),
* les arcs de composition (appelés aussi «liens asa (HAS A)» - cf liens mauves sur l’image),
* les arcs d’instanciation (appelés aussi : «liens iko (IS A KIND OF)» - cf liens verts sur l’image).
Raisonnement dans un réseau sémantique :
Afin de déterminer si un objet, représenté par un noeud A, est membre d’un ensemble, représenté par un noeud
B, il faut suivre tous les arcs allant de A vers le haut (arc isa et arcs d’instances) pour voir si on rencontre le
noeud B. Afin de déterminer la valeur de certaines propriétés d’un objet représenté par le noeud A, on suit les
arcs allant de A vers le haut (comme précédemment) jusqu’à ce que l’on trouve un noeud ayant cette propriété
(arc de fonction).
2. La modélisation discursive : mise en discours par l’écrit de la pensée.
- Avantages / inconvénient - retour critiques
- Brainstorming
- Méthode de delphi
- Matrice de décision
- Rédaction de profils types (penser à cela pour le mémoire)
- Rédaction de scénarios-types : hyppothèse de situation. cela a permis de déterminer la stratégie
scoda/ wolkswagen, PSA
3. La modélisation structurale :
- Matrice d’interaction
4. La modélisation dynamique:
- Matrice d’interaction
- Simulation humaines - protocoles stricts
- Simulation informatisées - heuristique
- Programmation de système interactif
- Générateur de systèmes expertz (SE)
- Représentation graphique dynamique
(exemple l’organigramme)
voir aussi la boucle logique.
Méthodologie rétroactive
visualistaion d’un sommaire dynamique norbert viénaire
Les thématiques complexes ont et doivent être shématisées.
Conclusion
il faut modéliser la pensée, il faut chercher a organiser la complixité de la manière la plus créative
Il faut penser la complexité par la graphique.Il est important de trouver, fabriquer, sélectionner les outils nécéssaire
à la validation de nos hyppothéses, sans crindre de recourir a plusoerus d’entre eux. cela permettra
d’offrir plusieurs réferenciels et de mieux valider la problématique.
Problématique : Les supporter de l’asse sont ils sumis à la stratégie de communication externe du club via les
média officiels ou ont-ils les moyens d’actions et de communication pour se positionner par rapport à la cette
politique?
la stratégie de communication du gpe de supporter affiche t-elle comme ambitin de siuplléer la communication
officielle du club.
Les valeurs communiquées par l’asse sont elle suffisament en adéquation avec chacun des groupes de supporter
afin de présenter une certaine cohérence.
Problématique : les nouvelles technologie et particulièrement internet engendre t’elles une évolution de
la communication, et par incidence une manière nouvelle de structurer nos pensées ainsi que d’accéder à la
connaissance
l’évolution de la la science de la communication peut être être étudiée sous une forme Darwinienne
L’évoltuion de la communication et des nouvelles technologie peuvent elles engendrer une uniformisation de
la pensée.
la connaissance
Chapitre 4 organisation pratique du mémoire















Publicité
8 décembre 2009

Communication financière

Contact :

Mail :  mart.collonge@gmail.com
Tel : 0607062162

    • Contrôle :

        - QCM
        - Power point


Qu'est-ce que la communication financière :

C’est un outils de discussion avec les partenaires-investisseurs. Elle prend toute son ampleur lorsque la société est côtée en bourse. Dans ce cas, elle a des obligations de communication financière :
   
    - périodicité
    - sur le fond  : quels éléments

C’est une forme de communication qui a un cadre juridique.


Comment la communication financière s’inscrit dans la communication globale?

L’information financière est la matière première servant aux investisseurs (et d’autres agents économiques : prêteurs, clients, employés, pouvoirs publics...) à prendre leurs décisions.

En France, l’obligation de diffuser l’information financière est différente selon les sociétés, notamment suivant le fait que l’entreprise est cotée en bourse ou non. Mais la simple obligation de déposer les comptes annuels auprès du greffe concerne la plus grande partie des sociétés commerciales (voir ci-dessous). D’autres sociétés plus exposées sont tenues de faire paraître leurs comptes dans un journal d’annonces légales (Établissements bancaires, établissements de crédits ou filiales de sociétés cotées par exemple). Les sociétés cotées sur le marché réglementé et les établissements financiers dépassant un certain seuil publient au bulletin des annonces légales obligatoires, une des branches du Journal Officiel.

Un secteur particulièrement surveillé (systèmes d’audit, de publications obligatoires, d’autorités de contrôle tels que l’Autorité des marchés financiers : AMF*) est celui de l’information donnée par les entreprises sur leur situation financière et leur activité et perspectives, notamment par celles faisant appel public à l’épargne ou cotées sur une bourse de valeurs.




Exercice pratique
: Création d’entreprise.

BILAN :

ACTIF    PASSIF

IMMOBILISATION

Frais d’établissement
Matériel de bureau
Fonds commerciaux


ACTIF CIRCULANT

Stocks
Créances client
Trésorerie   
CAPITAUX (FONDS) PROPRES

Capital
Subventions
réserves


POVISIONS RISQUE ET CHARGES DETTES

Emprunt
Fournisseurs
Dettes fiscales et sociales



Total actifs = total du passif


*R* Possibilité de faire une première année de 16 mois. afin de pouvoir permettre d’équilibrer bilan. En effet, au début le bilan est souvent négatif... le temps que l’entreprise trouve ses rouages.



Compte de résultat = activité de l’entreprise

• Chiffre d’affaire :

    +vente de prestations
    + vente de marchandises
    - Achats de marchandises
    - autres charges externes                        
    - Salaires
    - charges sociales
    - dotations provision et amortissement

    =  résultat exploitation
    (frais financiers - intérets)
    = résultat financier
    Produits - charges exceptionnel(le)s
    = Résultat exceptionnel
   

Le chiffre d’affaires (ou CA) :

Il désigne le total des ventes de biens et de services facturés par une entreprise sur un exercice comptable.

Il est exprimé en unités monétaires et compté sur une année. Il se calcule hors taxe, et en particulier hors TVA et déduction faite des rabais, remises et ristournes accordés.

Concrètement, le chiffre d’affaires d’une entreprise sur un exercice donné s’obtient en faisant la somme de l’ensemble des factures et avoirs hors taxes émis au cours de l’exercice.




Chap. II  Le fonctionnement de la bourse



    I / le rôle de la bourse dans l’économie

    investisseurs institutionnels :  assureurs : banques, assurances, caisses d’assurances. Ils investissent l’argent récolté afin de le faire fructifier
en bourse.
La bourse permet notament d’augmenter le capital d’une entreprise.

Le marché financier comprend deux composantes essentielle : le marché primaire et le marché secondaire.
La bourse est un lieu de rencontre des épargnants, investisseurs et des entreprises.


NYSE Euronext : Inc. (NYSE : NYX, Euronext : NYX) est un groupe mondial de places boursières. Il est né en 2007 de la fusion entre le New York Stock Exchange et le groupe Euronext. NYSE Euronext est aujourd’hui le premier groupe mondial de places boursières.

Le groupe Euronext a existé entre 2000 et 2007, il était une grande bourse de valeurs en Europe, place de marché issue de la fusion des Bourses de Paris, Amsterdam, Bruxelles, Lisbonne et Porto, et du LIFFE.


Organisation institutionnelles française à partir de janv 2005

AMF : Autorité des marché financiers
Champ et compétence habilite notament les personne ayant compétence à travailler sur le produit d’épargne.



2 volet de la com financière :

    - Entreprises cotées en bourses
    - Non cotées en bourses

    • Actionnaires :

        - Investisseurs institutionnels (banques, brokers, compagnies d’assurance, caisses de retraites)
        - Investisseurs institutionnels étrangers
        - Les particuliers  (PEA, ou portefeuilles d’actions perso, clubs d’investissement)
        - Les salariés (FCPE : au lieu de donner des primes à leurs salariés, ils placent de l’argent pour eux aux sein de fonds communs d’actions, PEE = plan d’épargne d’entreprise)

Il y a 5 000 000 de français qui possèdes des actions.


    • Les autorités de marché :

        - Euronext = société commerciale qui a pour mission de réguler les transactions financières... 4 places (Paris, amsterdam, bruxel et lisbonne)
        - AMF = véritable autorité, ils peuvent notamment mener des enquètes.



    • Les société de bourses, sont des spécialistes des analyses de sociétés.
    • Agences de com financière : Actus, newcaps, caliptus
    • Les commissaires aux comptes
    • Cabinets juridiques
    • Dépositaires des titres (souvent banques)


- De 7h15 à 9h00 > carnet d’ordre/ carnet de vente
- 9hOO ouverture de la bourse, jusqu’a 17H00. Il est impossible de faire la communication pendant cette période afin que que tout les acteurs puissent bénéficier des info de manière équitable.

    • Segmentation :
                - Eurolist marché réglementé.
                - Alternext : non règlementé. contrainte de communication sont allégées;
                - le marché libre : les société sont libre de communicquer ou non.

    • CAC40 les 40 entreprises les plus importantes de la bourse de Paris (il existe aussi le sbf 120 et 250)
    • Les analystes financiers : sont des suiveurs   
    • Les journalistes financier

http://www.journal-officiel.gouv.fr/

IPO = moment ou la société s’introduit en bourse.



Lés communiqué financier

one to one >> conseil
animation de site boursier



Tout les trois l’entreprise doit sortir son chiffre d’affaire trimestriel, de la elle peut en expliquer les causes,


Voir définition de stock options
action gratuite


04/11/2009


La communication financière donne de la transparence sur la santé de l’entreprise.
Elle favorise une bonne valorisation en bourse.
Le trouble dans cette communication engendre la crainte des actionnaire réels ou potentiels. Même en cas d’échec, car elle permet de les expliquer. cela permet d’informer sur les évolutions  de l’entreprise et les informations qu’elle aura pu en retenir.


MIF Marché des Investissement financier >> a voir sur le net.

    cette réforme à trois volets


    3. meilleur exécution.



Chi-X est un marché boursier alternatif européen lancée en mars 2007 par Instinet[1]. Après les échecs des projets antérieurs à 2005, Chi-X a été la première plateforme multilatérale de négociation (ou MTF) opérationnelle en Europe parvenant à concurrencer les «vieux» marchés boursiers traditionnels (Euronext, London Stock Exchange, Deutsche Börse, etc.).

Chi-X semble en passe de modifier le marché boursier européen, selon le site d’informations financière de Dowjones en juin 2008[2] : en mars 2008, il revendiquait 20% de parts de marché des transactions sur les actions des plus grandes sociétés françaises, allemandes, néerlandaises, suisses et britanniques[3]. A l’été 2008, il visait également l’entrée en Italie[4].



La MIF - Directive Marchés d’Instruments Financiers
   
La mise en œuvre de la directive sur les marchés d’instruments financiers (MIF) au 1er novembre 2007 est une vraie révolution : non seulement elle bouleverse le cadre des activités de marchés en renforçant fortement la concurrence, mais elle renouvelle aussi la relation entre la banque et ses clients. En proposant un cadre harmonisé pour l’ensemble des activités de marchés d’instruments financiers, la nouvelle directive devrait augmenter la transparence et la qualité des services aux investisseurs. Mais elle impose aussi aux places financières une véritable course à la compétitivité.

Des changements concrets au 1er novembre. La mise en œuvre de la MIF a représenté un chantier très important pour les banques françaises car elle concerne à la fois les activités de banque d’investissement et celles de banque de détail. Pour prendre en compte le nouveau cadre réglementaire, les banques ont notamment réorganisé leurs systèmes d’information, formé leurs collaborateurs dans les réseaux et procédé à l’information de leur clientèle.




Comprendre la MIF

La directive européenne sur les marchés d’instruments financiers (Directive MIF) est entrée en vigueur le 1er novembre 2007.

Les titulaires d’un compte titres, voire même seulement d’un compte bancaire, ont reçu ou vont recevoir dans les prochains jours un courrier de leur banque à ce sujet. En effet, cette directive apporte des modifications importantes aux relations entre les intermédiaires financiers et leurs clients dans le domaine des placements financiers.

Pour vous aider à vous y retrouver, nous mettons à votre disposition un dossier explicatif. Pour une vision d’ensemble, consultez nos dix questions-réponses. Nous vous proposons une information plus détaillée sur les trois changements qui vous concernent le plus directement : les informations qui devront vous être communiquées, les conseils qui vous seront donnés et l’exécution des ordres.

Et préparez-vous à votre prochain rendez-vous avec votre chargé de clientèle à l’aide de notre questionnaire.



Autorité des marché financier

http://www.amf-france.org/


(aux USA c’est la SEC)

Présentation de l’Autorité des marchés financiers

    Créée par la loi n° 2003-706 de sécurité financière du 1er août 2003, l’Autorité des marchés financiers est issue de la fusion de la Commission des opérations de bourse (COB >> 1964), du Conseil des marchés financiers (CMF) et du Conseil de discipline de la gestion financière (CDGF).
en europe le CESR

    Ce rapprochement a pour objectif de renforcer l’efficacité et la visibilité de la régulation de la place financière française.

    L’Autorité des marchés financiers est un organisme public indépendant, doté de la personnalité morale et disposant d’une autonomie financière, qui a pour missions de veiller :

        * à la protection de l’épargne investie dans les instruments financiers et tout autre placement donnant lieu à appel public à l’épargne ;
        * à l’information des investisseurs ;
        * au bon fonctionnement des marchés d’instruments financiers.

    Elle apporte son concours à la régulation de ces marchés aux échelons européen et international.

    L’Autorité des marchés financiers comprend :

        * un collège de 16 membres ;
        * une commission des sanctions de 12 membres ;
        * des commissions spécialisées et des commissions consultatives.

    Le ministre de l’Economie, des Finances et de l’Emploi désigne le commissaire du Gouvernement qui siège auprès de toutes les formations, sans voix délibérative.

    Le président de l’Autorité des marchés financiers est nommé par décret du président de la République pour un mandat de cinq ans non renouvelable.

    L’Autorité des marchés financiers dispose de services dirigés par un secrétaire général. Le personnel des services est composé d’agents contractuels de droit public, de salariés de droit privé et d’agents publics, soit 350 personnes fin 2007.

Haut de page



• Les compétences de l’Autorité des marchés financiers

    L’Autorité des marchés financiers exerce quatre types de responsabilités :

        * réglementer ;
        * autoriser ;
        * surveiller ;
        * sanctionner.

    Ses compétences portent sur :

        * Les opérations et l’information financière: L’Autorité des marchés financiers réglemente les opérations financières et l’information diffusée par les sociétés cotées. Ces sociétés ont l’obligation d’informer le public de leurs activités, de leurs résultats et de leurs opérations financières. L’AMF supervise et contrôle l’information délivrée, en veillant à ce qu’elle soit précise, sincère, exacte et diffusée à l’ensemble de la communauté financière.


        * Les produits d’épargne collective(1): l’Autorité des marchés financiers autorise la création de SICAV et de FCP. Elle vérifie notamment l’information figurant dans le prospectus simplifié de chaque produit qui doit être remis au client avant d’investir. S’agissant des produits complexes (fonds à formule, etc.), l’Autorité veille à ce que les spécificités des produits et leurs conséquences soient clairement présentées aux épargnants.


        * Les marchés et leurs infrastructures : L’AMF définit les principes d’organisation et de fonctionnement que doivent respecter les entreprises de marché, (comme Euronext Paris qui organise les transactions sur les marchés des actions, des obligations et des produits dérivés), les systèmes de règlement-livraison et les dépositaires centraux (comme Euroclear France). L’AMF approuve également les règles des chambres de compensation (comme Clearnet) qui centralise chaque jour les transactions et détermine les conditions d’exercice de leurs adhérents.


        * Les prestataires (établissements de crédit autorisés à fournir des services d’investissement, entreprises d’investissement, sociétés de gestion, conseillers en investissement financier, démarcheurs , etc.) : L’AMF fixe les règles de bonne conduite et les obligations que doivent respecter les professionnels autorisés à fournir des services d’investissement. Elle agrée les sociétés de gestion.
          L’AMF agrée les associations professionnelles chargées de la représentation collective, de la défense des droits et des intérêts des conseillers en investissements financiers et contrôle ces conseillers en investissements financiers.

          L’AMF surveille enfin les démarcheurs agissant pour le compte des sociétés de gestion.

      L’Autorité des marchés financiers peut également procéder à des contrôles et à des enquêtes et, en cas de pratiques contraires à son règlement général ou aux obligations professionnelles, la Commission des sanctions peut prononcer des sanctions.

    - il y a une possiblité d’appel
    - une pesonne peut être interdite à vie des marchés financier.


    Lorsque les faits paraissent constitutifs d’un délit, le Collège de l’Autorité des marchés financiers transmet le rapport de contrôle ou d’enquête au procureur de la République.

      Pour venir en aide aux investisseurs non professionnels, l’AMF met à la disposition des particuliers et des associations son service de la médiation. Outre sa mission d’information et de pédagogie auprès du public, le Service de la médiation reçoit les réclamations portant sur l’information financière, l’exécution des ordres, le transfert de comptes-titres, la gestion pour compte de tiers. Il propose également un règlement à l’amiable en cas de litige entre un particulier et un professionnel.




Capitalisation boursière


La capitalisation boursière est la valeur de marché de l’ensemble des actions en circulation d’une société par actions. C’est donc le prix qu’il faudrait payer s’il était possible de racheter toutes les actions d’une société à leur cours de marché actuel. Il faut noter toutefois que lorsqu’un investisseur désire acquérir 100% des actions d’une société, il doit généralement payer plus que le cours du marché pour inciter les actionnaires actuels à lui vendre leurs actions.

La théorie économique permet de relier capitalisation boursière et profits futurs de la société. Si l’on suppose que les actionnaires recherchent uniquement leur profit financier et que les marchés fonctionnent de manière efficiente, la capitalisation boursière dépend de deux choses uniquement : des profits futurs attendus pour les actionnaires, et du risque financier qui lui est associé. La capitalisation boursière sera d’autant plus élevée que les profits attendus sont élevés. À espérance de profit égale, plus les prévisions sont incertaines, moins la capitalisation boursière sera élevée[N 1].

Il ne faut pas confondre la capitalisation boursière avec la valeur de l’entreprise, qui mesure la valeur de marché de l’ensemble des capitaux investis dans l’entreprise. Celle-ci comprend non seulement la capitalisation boursière, mais aussi la dette financière. La dette est en effet considérée comme l’argent investi par les prêteurs, de la même manière que la capitalisation est l’argent investi par les actionnaires. Ainsi, lorsqu’une entreprise est endettée, sa valeur totale est supérieure à sa capitalisation boursière.

Au 31 décembre 2008, les deux sociétés ayant la plus forte capitalisation boursière au monde étaient deux compagnies pétrolières : ExxonMobil et Petrochina, respectivement 406 et 260 milliards de dollars.


Mode de calcul

En théorie, la capitalisation boursière d’une société par actions se définit simplement. C’est le produit du nombre de ses actions en circulation par la valeur de marché de chaque action.

Capitalisation boursière = nombre d’actions en circulation x cours de l’action

Ainsi s’il y a 1000 actions en circulation et que le cours de bourse de l’action est 500€, la capitalisation est de 500 000€. Si la valeur de l’action augmente de 5%, à nombre constant d’actions, la capitalisation boursière augmente de 5%. Si, à cours de bourse constant, le nombre d’actions augmente de 10%, alors, la capitalisation boursière augmente de 10%. En revanche, si le nombre d’actions est doublé mais que le cours de bourse est divisé par deux, alors la capitalisation boursière reste inchangée.




Action

Une action (en anglais britannique : share, en anglais américain : stock) est un titre de propriété délivré par une société de capitaux (i.e. une société anonyme ou Société en commandite par actions). Elle confère à son détenteur la propriété d’une partie du capital, avec les droits qui y sont associés : intervenir dans la gestion de l’entreprise et en retirer un revenu appelé dividende.

Le détenteur d’actions est qualifié d’actionnaire et l’ensemble des actionnaires constitue l’actionnariat.


Obligation

Une obligation (en anglais : bond) est une valeur mobilière qui est un titre de créance représentatif d’un emprunt. En tant que tel, l’obligation est cessible et peut donc faire l’objet d’une cotation sur une Bourse, i.e. un marché secondaire. Dans la pratique, les volumes échangés se négocient principalement de gré à gré.


Coupon

En terme financier, le coupon attaché à une obligation est en fait le taux d’intérêt que verse cette obligation à son détenteur. Certaines obligations ne versent pas de coupon, ce sont les obligations « zéro-coupon ».


Fluctuation du cours des actions

Le cours d’une action résulte du jeu de l’offre et la demande. Lorsque la demande l’emporte sur l’offre, les cours montent, ce qui réduit le nombre de personnes désirant acheter et augmente le nombre de personnes désirant vendre. Si l’offre est supérieure à la demande, le phénomène inverse se produit.

Lorsque les acheteurs sont beaucoup plus nombreux que les vendeurs, le cours monte fortement. Au delà d’un certain pourcentage de hausse, il peut être bloqué par l’autorité de régulation du marché (A Paris, l’AMF : Autorité des Marchés Financiers). Le cours est alors réservé à la hausse en attendant qu’un équilibre se trouve.

Inversement, lorsque les vendeurs sont beaucoup plus nombreux que les acheteurs, le cours baisse fortement. Le cours peut être réservé à la baisse en attendant qu’un équilibre se trouve.

Les cours peuvent aussi être réservés à la demande de la société émettrice, dans l’attente de diffusion d’information (augmentation de capital, OPA...)

L’offre et la demande dépendent de multiples facteurs. Si les marchés fonctionnent correctement et les investisseurs recherchent leur profit financier de manière rationnelle, le cours d’une action ne doit dépendre que des bénéfices futurs de l’entreprise.Lorsque la santé financière de l’entreprise parait s’améliorer, ou lorsque la situation économique semble plus favorable, le cours de l’action a donc tendance à monter. Dans le cas inverse, il a tendance à baisser. Différents travaux ont montré toutefois que les fluctuation des cours ne peuvent être expliquées par ces seuls facteurs. En particulier, le cours des actions tend à une plus grande volatilité que celle prédite par la théorie classique.


Les acteurs boursiers :





























Faire une présentation.
Se mettre dans la peu de l’agence de communication qui va faire la com financière
Power point
objectif : présentation de 15/20 minutes (une minute par slide)
mettre en avant les point forts

Dossier d’introduction est composé pour diffusion auprés des investisseurs institutinnels ou particuliers et analystesfinanciers et les médias.

    - Prospectus ou
        Document de base (visé par l’AMF) + Note d’opération

Annexes :

    - Analyse financière
    - Présentation slides
    - document commerciale technique


Choix d’une banque introductrice et d’une société de bourse




Banque introductrice ( = listing sponsor/PSI (prestataires de services en investissement/):  Oddo corporate finance

Société de bourse (listing sponsor/PSI): analyse financière Oddo prestataire de service d’investissement


1000 Mercis


I.Présentation de l’entreprise :

    - histoire et évolution de l’entreprise

II. Apperçu des activités

    - Publicité et marcketing interactif
    - Avantages concurentiel

III. Le marché

IV. Résultats et situation financière
V. Actionnaires
VI. Prévisions


16 novembre 2009

tghehy

rhryhy(-yh

Publicité
blog collaboratif master info-com
Publicité
Publicité