Vous n'êtes pas identifié.
Grâce à cet outil : https://www.bing.com/images/create?FORM=GENILP
Hors ligne
Moué ... "Le Créateur d’image génère des images IA en fonction de votre texte" ..
C'est prendre les gens pour des débiles (je reste poli..)
Le programme va simplement chercher dans sa très grande banque de donné ce qui correspond aux mots clefs tapés.
"Les formateurs de DALL-E 2 ont "montré" au logiciel des millions d'images (toutes associées à des significations) provenant de l'ensemble du web.
Le générateur d'art se réfère à cet ensemble de données lorsqu'il reçoit un message et utilise ensuite des modèles statistiques pour créer ses propres images."
En gros il va mixer les données d'image pour répondre à la demande, Mais bon le terme "AI" est à la mode cela fait mieux que programme de tri adaptif !
ps : Dans le domaine architectural cela fait trente ans que l'on travaille sur des programmes de tri adaptif.
Dernière modification par Barnstormer (03-11-2023 14:02:01)
Hors ligne
Barnstormer a écrit:
En gros il va mixer les données d'image pour répondre à la demande, Mais bon le terme "AI" est à la mode cela fait mieux que programme de tri adaptif
C’est le principe même d’une IA, être capable de générer un résultat (qu’il soit une génération d’image ici, ou du texte comme pour les chat bots ou les traductions automatiques ou même de la musique et bien d’autres choses encore) à partir d’un apprentissage sur des données existantes.
La grosse différence avec le filtrage adaptatif auquel tu fais probablement référence, c’est que l’IA utilise des algorithmes non linéaires ce qui permet un champ d’application bien plus vaste et plus complexe.
En réalité ici pour la génération d’images l’IA ne se contente pas de faire un simple filtre dans les images qu’elles a vues durant son apprentissage mais elle est capable de créer des images originales à partir de la synthèse d’images existantes qui sont générées par l’algorithme.
Et c’est d’ailleurs un problème dans certains cas (et pas seulement éthique) car il est difficile de faire la part en ce qui existe et ce qui a été créé par l’IA…
Hors ligne
Malheureusement, "grâce" à l'IA un nombre de plus en plus croissant de postes ont commencé a disparaitre dans des domaines comme l'industrie, l'engineering, le juridique, bref... la connaissance, la formation sont "dépassés" par l'IA et trop coûteux au moins individuellement. D'ailleurs l'USA à mis en application récemment un important décret pour encadrer l'IA.
https://www.usine-digitale.fr/article/l … e.N2189533
https://ici.radio-canada.ca/nouvelle/20 … ncadrement
Dernière modification par chessgame80 (03-11-2023 15:34:46)
Hors ligne
Et c’est d’ailleurs un problème dans certains cas (et pas seulement éthique) car il est difficile de faire la part en ce qui existe et ce qui a été créé par l’IA…
Exact c'est un vrai problème pour les droits d'utilisation, seules les références libre de droit devraient normalement être utilisées.
Mais je reste sur mon idée que le terme d'IA est dans la plupart des cas mal utilisé et inapproprié, surtout pour un logiciel comme DALL-E.
L'utilisation d'un algorithme ne suffit pas pour désigner une "Intelligence" ne serait ce que de calcul.
Dernière modification par Barnstormer (03-11-2023 16:05:29)
Hors ligne
Ce sont en effet de bonnes observations, on n'est pas dans la vraie IA dite forte, mais on est dans des programmes bien plus performants que ce qui existait avant ET qui fonctionnent grâce au deep learning lui même basé sur des réseaux de neurones virtuels. Comme on rentre dans quelque chose qui imite plus ou moins le fonctionnement de notre cerveau alors le nom intelligence artificielle n'est pas trop trop déconnant. Artificiellement, on tente d'imiter de l'intelligence.
D'ailleurs la façon dont tu décris l'IA "graphique" dirons nous, bah en fait pour un humain c'est un peu pareil, mais en mieux ! Nous aussi, on pioche dans un énorme référentiel, basé sur nos expériences, nos sens et ce qu'on a vu (y compris les oeuvres non libres de droit, je pose ça la....), on le mixe, on le déforme, on l'adapte à notre besoin et on pond un truc. Un peu comme elles
Les IA n'ont d'ailleurs pas stocké les images vues sur un serveur mais ont stocké l'analyse qu'elles en ont fait et ce qu'elles en ont déduit et "appris".
Le terme est donc un peu too much mais pas si mauvais que ça, pour le moment elles se cantonnent à une tâche précise (parler de façon crédible, traduire, composer une image, etc etc...) et c'est une grosse limitation.
On est pas encore dans le fantasme des livres et films de SF, mais une marche importante a été réalisée car, sous le capot, vous vous en doutez, tout ça n'est pas si simple... On est donc, techniquement en tout cas, très, TRÈS loin d'un "simple" algorithme. On a des algo très évolués qui utilisent le deep learning qui lui, imite tant bien que mal notre cerveau ...
Dernière modification par Ragg Sor (03-11-2023 16:36:14)
Hors ligne
D'accord avec toi, mais tant qu'on ne travaillera pas sur de réels ordinateurs neuronaux cela restera une appellation liée à un effet de mode. Comme beaucoup d'appellations utilisées dans mon métier ....
Le post parlait du système DALL-E de Bing (extrêmement limité en terme de créativité..) et pas de DATA de Star Trek ...
Dernière modification par Barnstormer (03-11-2023 20:40:30)
Hors ligne
Les développements lus ici sur l’IA sont très intéressants.
Le numéro de novembre de info-pilote (mensuel de la FFA) que je viens de recevoir, publie un article sur l’IA pour le VFR. Un test a été réalisé pour la préparation de vol au sens large (météo, nav mais aussi panne et tourisme) pour un vol Toussus-Ile d’Yeu par un DR-400. ChatGPT et GBard ont été testés. Performances « CAT-IA-STROPHIQUES » conclut l’article (y compris pour le tourisme) mais ne désespère pas : les tests sont plus concluants aux US pour ce type de questions en raison d’un rodage plus grand effectué à partir des bases de données aéronautiques américaines.
L’IA pour le pilotage des avions de ligne est presque déjà là, non ? Alors pourquoi ne pas espérer qu’elle nous donne prochainement et avec une sécurité suffisante le bon numéro de tél. du bar-restaurant de l’aérodrome d’arrivée ?
Dernière modification par maclen (04-11-2023 23:12:55)
Hors ligne
C'est tellement un non sens de passer par chatGPT pour faire ce genre de truc. Pas étonné une seconde du résultat...
ChatGPT, malgré les nombreux scripts pour lui faire faire ceci ou cela, a été fondamentalement créé pour faire la conversation de façon crédible. Et c'est tout. La notion de vérité lui est complètement étrangère, ce n'est pas un paramètre !
Il n'est donc pas surprenant qu'il se gaufre pour d'autres trucs que ce pour quoi il a été conçu. Même si parfois il a pu surprendre son monde, il n'est pas faite du tout pour ça.
Si on veut une "IA" ATC, il faut prendre un cluster neuronal et le faire bosser sur je ne sais combien de millions de conversations d'ATC et de pilotes, lui faire ingurgiter toutes les règlementations aériennes (une paille), les codes, l'univers aéro, ce genre de choses, etc. Comme semblent le faire les tests US dont tu parle (pas entendu parler)
Pour ceux que ça intéresse, une vidéo très bien fichue qui explique clairement ce qu'est chatGPT. Une petite demi heure, mais vraiment, ça vaut le coup pour comprendre de quoi on parle et pourquoi tant de trucs racontés sur chatGPT sont complètement à côté de la plaque.
https://youtu.be/7ell8KEbhJo?si=NNI5Q1953wX7VRxG
Dernière modification par Ragg Sor (05-11-2023 00:01:44)
Hors ligne
Merci Sébastien pour le lien !
Hors ligne
maclen a écrit:
L’IA pour le pilotage des avions de ligne est presque déjà là, non ? Alors pourquoi ne pas espérer qu’elle nous donne prochainement et avec une sécurité suffisante le bon numéro de tél. du bar-restaurant de l’aérodrome d’arrivée ?
Alors là, je crois que non, ou alors on ne peut pas parler d'IA au sens qu'on lui donne pour les IA génératives dont on parle aujourd'hui.
Pour mettre l'avion dans les mains d'un logiciel, on va s'assurer que le logiciel est complétement déterministe, qu'il exécutera exactement les instructions qu'il sera censé effectué et pas autrement.
Et tout ça aura été modélisé, conçu, testé sur PC conventionnel, sur la carte électronique sur lequel le soft sera embarqué, de manière intégré au reste des systèmes de l'avion (sur iron bird par exemple) et enfin pendant le vol pour être sûr que tout ce que le soft sortira ne déviera pas de ce pourquoi il aura été conçu et de comment il aura été conçu.
Tout ce process aura été fait par des personnes différentes à chaque étape, pour éviter les biais, et il y aura une personne en plus à chaque étape pour vérifier que chaque étape aura été correctement faite et testée selon des critères stricts.
Et enfin, il y aura le certificateur indépendant (normalement, on a vu que chez Boeing, le concept d'indépendance peut être sujet à interprétation) qui vérifiera que tout ça aura été fait dans les règles pour autoriser le logiciel à voler.
J'ai bossé dans la sureté de fonctionnement logiciel, dans différents domaines et dont l'aéronautique, ça c'est pour mon argument d'autorité (pour vous afirmer que je crois savoir de quoi je parle ).
Pour les logiciels embarqués sur avion, il existe donc une norme, la DO-178 qui impose tout ça, et aucun avion ne pourra être certifié pour voler si les softs qu'il embarque ne sont pas eux-mêmes certifiés comme conforme à cette norme.
Donc mettre un soft comme une IA générative, dont les réseaux de neurones sont tellement immenses et trop complexes pour que même les experts qui les ont développés sont incapables de dire pourquoi ça marche, et qui sont donc indéterministes, c'est exclus d'office sur un avion. En tout cas, et pour les nombreuses prochaines années ce sera comme ça.
Hors ligne