Nouveautés flagrant délit avec BigQuery AI et ML

BigQuery vient de sortir de son brouillard de monotonie avec des ajouts qui feraient rougir même les avancées les plus ambitieuses du secteur. Qui aurait cru qu’un simple moteur d’analyse de données se transformerait en oracle des temps modernes ? De la prévision grâce à TimesFM aux fonctions adaptatives des LLM, préparez-vous à découvrir comment ces nouveautés résonnent avec vos besoins les plus inavoués.

Prévisions simplifiées avec TimesFM

Ah, la prévision avec TimesFM, un petit bijou pour ceux qui souhaitent anticiper l’avenir sans avoir à sacrifier une chèvre ou prier le grand oracle de Delphes. Avec la nouvelle fonction AI.FORECAST intégrée dans BigQuery, vous vous retrouvez à jongler avec des séries temporelles comme un clown au cirque, mais sans le risque de vous faire huer par le public.

Maintenant, imaginez un monde où les prévisions de vos ventes, de la météo, ou même des caprices de votre petit dernier deviennent aussi fiables qu’une horloge suisse, sans pour autant avoir besoin de consulter un gourou. C’est le mantra du modèle TimesFM : simplicité et efficacité. Cette fonctionnalité gère tout, de l’évaluation des données à la visualisation des prévisions, et le mieux, c’est qu’elle le fait avec la grâce d’un chat qui retombe toujours sur ses pattes. Dans le jargon de la data, cela s’appelle « l’échelle ». Littéralement, vous pouvez balancer d’énormes ensembles de données sans craindre de provoquer une explosion de la base de données. Même le serveur peut souffler un peu !

En termes de gestion, c’est tout aussi simple qu’un vendredi soir sans réunion. Pas besoin d’un manuel d’instructions de la taille d’un annuaire téléphonique, mais un petit coup d’œil au code suffira pour vous convaincre :


SELECT
  TIMESTAMP_TRUNC(CURRENT_TIMESTAMP(), MONTH) AS forecast_month,
  AI.FORECAST(
    sales,
    TIME_COLUMN = TIMESTAMP '2023-01-01',
    TARGET_COLUMN = 'sales_amount',
    TIME_UNITS = 'MONTH',
    MODEL_OPTIONS = STRUCT(
      /* options d'équilibre ajustables */)
  ) AS predicted_sales
FROM 
  `project.dataset.sales_data`
WHERE 
  TIMESTAMP_COLUMN < CURRENT_TIMESTAMP()

Et voilà, en quelques lignes, vous pouvez obtenir une prévision. Imaginez le temps que cela vous fait économiser. Vous pouvez maintenant enfin finir cette série que vous avez commencée l'année dernière.

Pour vous plonger encore plus dans les méandres de cette magie numérique, n’hésitez pas à flâner sur la documentation officielle, où la clarté et l’expertise se rencontrent sans crier gare. Qui sait, vous pourriez même y trouver la clé pour prévenir les caprices de votre voisin !

Génération de données structurées par les LLM

Ah, BigQuery et ses récentes explorations dans le monde palpitant de l'IA et du machine learning ! N'oublions pas que BigQuery, c'est un peu comme un buffet à volonté où la figurine en plastique de Yoda veille sur la qualité des plats. Prenons un moment pour examiner AI.GENERATE_TABLE, une fonction qui ressemble à un magicien sous acide, capable de transformer des données en métadonnées sur commande, un peu comme transformer de l’eau en vin, mais sans l’alcool, juste pour ne pas distiller de faux espoirs.

Donc, qu'est-ce qui se passe avec cette fonction qui promet de faire pleurer d'envie des data scientists en mission ? Avec AI.GENERATE_TABLE, on peut extraire, muter, et structurer les données sans avoir à sacrifier des poulets en plein rite vaudou. Imaginez faire l'analyse de sentimente sur les avis clients d'un shampooing anti-chute alors que vous ne savez même pas où vous avez laissé votre propre cheveu. Voilà l'art délicat de la gestion des données.

Pour mettre la théorie en pratique, voilà comment on s’y prend. Supposons que vous êtes acculés par une montagne d'avis clients sur votre dernier produit. Vous pouvez utiliser la commande suivante pour générer une table de sentiments basée sur ces commentaires :

CREATE OR REPLACE TABLE sentiment_analysis AS
SELECT
  review,
  AI.GENERATE_TABLE(review) AS sentiment
FROM
  customer_reviews;

Et voilà, un tableau qui résume l’amour ou le désespoir de vos clients, sans passer par les larmes. Très pratique pour gérer les risques, car il n'y a rien de plus risqué qu'un client malheureux, comme un chat dans un bain d'eau froide. Et entre nous, qui a vraiment envie d'entendre un client dire : "Ce shampooing m'a fait plus de mal que de bien !" ? Non, merci.

Une autre utilisation pourrait être une analyse plus fine des risques. Vous pourriez, par exemple, créer une table pour évaluer les menaces potentielles sur votre petite entreprise florissante. Parce que, souvenez-vous, le succès attire les jalousies et parfois, même les requins se déguisent en petits poissons.

CREATE OR REPLACE TABLE risk_assessment AS
SELECT
  incident,
  AI.GENERATE_TABLE(incident) AS risk_level
FROM
  incidents_log;

Donc, en utilisant AI.GENERATE_TABLE, BigQuery vous place dans une position de force pour naviguer dans ce monde sauvage de l'analyse de données. Comme un pirate en quête de trésor dont le plan est plus que rudimentaire, vous pouvez cartographier vos risques et comprendre comment piloter votre navire vers des eaux moins troubles. Et rappelez-vous : c’est dans la complexité que réside la simplicité, en théorie. En pratique, cela ressemble souvent à un jeu de société mal équilibré.

Fonctions LLM à l'échelle individuelle

Dans l'univers intergalactique du BigQuery AI, où l'intelligence artificielle fait des pirouettes et où les données valsent comme des ballerines, deux nouvelles fonctions viennent d'atterrir : AI.GENERATE et AI.GENERATE_BOOL. Ces deux-là sont comme Batman et Robin, mais dans le monde impitoyable de l'inférence ligne par ligne. Oubliez les capes, ici, c’est d’analyse de données qu’il s’agit !

AI.GENERATE est la façon ultime de faire parler vos données, un peu comme un psychologue qui réussirait à tirer des secrets d'un cactus. En d'autres termes, cette fonction vous permet de générer du texte à partir d'un contexte fourni, à la manière d'un romancier dont l’imagination serait soutenue par des milliards de lignes de code. Prenons un petit exemple, voulez-vous ? Supposons que vous ayez un dataset contenant les noms d’animaux et un champ « caractère ». Vous pourriez écrire :

SELECT AI.GENERATE(CONTENT "L’animal {nom} est connu pour son {caractère}.") AS description 
FROM votre_table ;

Et voilà, vous vous retrouvez avec des descriptions dignes des meilleures pages de l’Encyclopédie des animaux aux super-pouvoirs. Oui, un panda peut très bien être décrit comme « incroyablement adorable tout en revendiquant son territoire comme un pro ».

Maintenant, pour ce qui est d’AI.GENERATE_BOOL, accrochez-vous, car c'est ici que la magie se corse. Cette fonction permet de valider des assertions en retournant un booléen, comme si vous demandiez à votre meilleur ami si cette chemise lui va bien – il dira souvent que oui, mais les chiffres ne mentent pas. Si vous désirez savoir si un animal est réputé pour être dangereux, vous pourriez l’utiliser dans une requête telle que :

SELECT AI.GENERATE_BOOL("L’animal {nom} est dangereux.") AS est_dangerueux 
FROM votre_table ;

Ainsi, vous saurez si vous devez approcher ce lion comme un confident ou bien comme une proie. C’est ainsi que la flexibilité des nouvelles fonctions de BigQuery AI transforme chaque ligne d’un dataset en un petit chef-d'œuvre poétique ou en une révélation cruciale. Parce qu’au fond, qui a dit que les données ne pouvaient pas avoir du caractère ?

Analyse de contribution : illumination des décisions

Dans le monde mystérieux du BigQuery, là où les données dansent et les algorithmes s'agrippent comme des hiboux effrayés à leur branche, l'analyse de contribution se profile comme l'arbitre de cette broussaille chaotique. Imaginez-vous dans un cabinet où chaque décision est un pot de confiture, mélangé à une touche de chimie quantique : qui aurait cru qu'un petit décalage dans les ingrédients pourrait transformer votre tartine en poison à rats ? C'est là que cette analyse se révèle indispensable, illuminant le chemin obscur des dynamiques qui régissent nos entreprises, comme un phare qui clignote dans la nuit pour signaler les icebergs cachés aux marins égarés.

Il ne s'agit pas simplement de faire briller un bouton "Analyser" sur un tableau de bord. Oh non ! Il s'agit de plonger dans les entrailles des données pour découvrir qui tire vraiment les ficelles et qui, tel un figurant dans un film d'auteur français, est là juste pour faire joli. Prenons un exemple concret : imaginons une entreprise de vente de chaussures, qui souhaite comprendre l'impact des promotions sur les ventes. Plutôt que de se fier aux intuitions d'un PDG à moustache flamboyante, on peut modéliser leur impact grâce à un modèle d'analyse de contribution. Ce dernier décode les relations entre différents facteurs comme les promotions, la saisonnalité et les tendances de consommation.

Voici une requête SQL, telle une formule magique, qui permet d'extraire des insights percutants de cette analyse :


SELECT 
  promotion, 
  SUM(sales) AS total_sales, 
  COUNT(DISTINCT customer_id) AS customer_count 
FROM 
  sales_data 
GROUP BY 
  promotion
ORDER BY 
  total_sales DESC;

Avec cette requête, ce n’est pas seulement une histoire de chiffres, mais une véritable enquête sur le comportement consommateur — un peu comme un detective résolvant une affaire d'escroquerie au cambouis. Au final, l'analyse de contribution, ce n'est pas seulement un outil d'automatisation. C'est une lunette magique qui nous permet d'observer les erreurs de notre passé pour, peut-être, éviter de reproduire ce sketch tragique dans le futur. Alors, munissez-vous de BigQuery et plongez dans ce monde fascinant ! Pour plus de détails, filez jeter un œil par ici : un aperçu supplémentaire.

Conclusion

Les récentes innovations de BigQuery ML ne se contentent pas d'embellir l'interface, elles révolutionnent véritablement les méthodes d'analyse des données. Avec des outils comme TimesFM et l'analyse de contribution, vous pouvez désormais transformer vos données en actions significatives. Il est temps d'embrasser ces technologies pour demeurer pertinent dans un monde où l'inefficacité est une menace permanente.

FAQ

Qu'est-ce que TimesFM dans BigQuery ?

TimesFM est un modèle de prévision de série temporelle qui simplifie la prévision de manière significative, permettant des résultats précis sans formation supplémentaire.

Comment utiliser la fonction AI.GENERATE_TABLE ?

La fonction AI.GENERATE_TABLE permet d'extraire et de structurer les données de manière dynamique, sans nécessiter de parsing complexe, facilitant l'extraction d'informations essentielles.

Quelle est l'utilisation des fonctions LLM à des niveaux de ligne ?

Les fonctions comme AI.GENERATE permettent des inférences à la ligne, offrant ainsi plus de flexibilité dans les requêtes SQL et facilitant la personnalisation des analyses.

Quels types d'analyses peut-on effectuer avec l'analyse de contribution ?

L'analyse de contribution aide à comprendre les raisons derrière les changements clés dans vos métriques, révélant les facteurs qui influencent vos performances commerciales.

BigQuery propose-t-il d'autres modèles que Gemini ?

Oui, BigQuery supporte également des modèles open-source et tiers, ce qui élargit considérablement le choix des outils pour l'analyse de votre données.

Sources

Google Cloud; Nouveautés BigQuery AI et ML https://cloud.google.com/blog/products/data-analytics/bigquery-adds-new-ai-capabilities

Google Cloud; Analyse de contribution dans BigQuery ML, maintenant GA https://cloud.google.com/bigquery-ml-contribution-analysis-models-now-ga

Retour en haut