"إذا أراد العامل أن يؤدي عمله بشكل جيد، فعليه أولاً أن يشحذ أدواته." - كونفوشيوس، "مختارات كونفوشيوس. لو لينجونج"
الصفحة الأمامية > برمجة > قم بتوصيل AI/ML مع حل التحليلات التكيفية الخاص بك

قم بتوصيل AI/ML مع حل التحليلات التكيفية الخاص بك

تم النشر بتاريخ 2024-11-03
تصفح:604

في مشهد البيانات اليوم، تواجه الشركات عددًا من التحديات المختلفة. أحدها هو إجراء التحليلات فوق طبقة البيانات الموحدة والمنسقة المتاحة لجميع المستهلكين. طبقة يمكنها تقديم نفس الإجابات لنفس الأسئلة بغض النظر عن اللهجة أو الأداة المستخدمة.
يجيب InterSystems IRIS Data Platform على ذلك من خلال Adaptive Analytics والوظيفة الإضافية التي يمكنها تقديم هذه الطبقة الدلالية الموحدة. هناك الكثير من المقالات في DevCommunity حول استخدامه عبر أدوات ذكاء الأعمال. ستغطي هذه المقالة الجزء الخاص بكيفية استهلاكها باستخدام الذكاء الاصطناعي وأيضًا كيفية إعادة بعض الأفكار إلى الوراء.
هيا بنا خطوة بخطوة...

ما هي التحليلات التكيفية؟

يمكنك بسهولة العثور على بعض التعريفات في موقع مجتمع المطورين
في بضع كلمات، يمكنه تقديم البيانات في شكل منظم ومنسق إلى أدوات مختلفة من اختيارك لمزيد من الاستهلاك والتحليل. فهو يوفر نفس هياكل البيانات لمختلف أدوات ذكاء الأعمال. ولكن... يمكنها أيضًا تقديم نفس هياكل البيانات لأدوات الذكاء الاصطناعي/تعلم الآلة الخاصة بك!

تحتوي التحليلات التكيفية على مكون إضافي يسمى AI-Link الذي يبني هذا الجسر من الذكاء الاصطناعي إلى ذكاء الأعمال.

ما هو بالضبط AI-Link؟

هو أحد مكونات لغة Python تم تصميمه لتمكين التفاعل البرمجي مع الطبقة الدلالية لأغراض تبسيط المراحل الرئيسية لسير عمل التعلم الآلي (ML) (على سبيل المثال، هندسة الميزات).

باستخدام AI-Link يمكنك:

  • الوصول برمجيًا إلى ميزات نموذج البيانات التحليلية الخاص بك؛
  • إجراء الاستعلامات واستكشاف الأبعاد والمقاييس؛
  • تغذية خطوط أنابيب ML؛ ... وتسليم النتائج مرة أخرى إلى الطبقة الدلالية الخاصة بك ليتم استهلاكها مرة أخرى من قبل الآخرين (على سبيل المثال من خلال Tableau أو Excel).

نظرًا لأن هذه مكتبة بايثون، فيمكن استخدامها في أي بيئة بايثون. بما في ذلك أجهزة الكمبيوتر المحمولة.
وفي هذه المقالة سأقدم مثالًا بسيطًا للوصول إلى حل Adaptive Analytics من Jupyter Notebook بمساعدة AI-Link.

إليك مستودع git الذي سيحتوي على دفتر الملاحظات الكامل كمثال: https://github.com/v23ent/aa-hands-on

المتطلبات المسبقة

تفترض الخطوات الإضافية أن لديك المتطلبات المسبقة التالية مكتملة:

  1. تشغيل حل التحليلات التكيفية (باستخدام منصة بيانات IRIS كمستودع بيانات)
  2. تشغيل Jupyter Notebook
  3. يمكن إنشاء اتصال بين 1. و2.

الخطوة 1: الإعداد

أولاً، لنثبت المكونات المطلوبة في بيئتنا. سيؤدي ذلك إلى تنزيل بعض الحزم اللازمة لمزيد من الخطوات للعمل.
'atscale' - هذه هي الحزمة الرئيسية لدينا للاتصال
'prophet' - الحزمة التي سنحتاجها للقيام بالتنبؤات

pip install atscale prophet

ثم سنحتاج إلى استيراد الفئات الرئيسية التي تمثل بعض المفاهيم الأساسية للطبقة الدلالية لدينا.
العميل - الفئة التي سنستخدمها لإنشاء اتصال بالتحليلات التكيفية؛
المشروع - فئة لتمثيل المشاريع داخل التحليلات التكيفية؛
DataModel - الفئة التي ستمثل المكعب الافتراضي الخاص بنا؛

from atscale.client import Client
from atscale.data_model import DataModel
from atscale.project import Project
from prophet import Prophet
import pandas as pd 

الخطوة 2: الاتصال

الآن يجب أن نكون مستعدين لإنشاء اتصال بمصدر البيانات لدينا.

client = Client(server='http://adaptive.analytics.server', username='sample')
client.connect()

تابع وحدد تفاصيل الاتصال لمثيل Adaptive Analytics الخاص بك. بمجرد أن يُطلب منك رد المؤسسة في مربع الحوار، ثم الرجاء إدخال كلمة المرور الخاصة بك من مثيل AtScale.

مع الاتصال القائم، ستحتاج بعد ذلك إلى تحديد مشروعك من قائمة المشاريع المنشورة على الخادم. ستحصل على قائمة المشاريع كمطالبة تفاعلية ويجب أن تكون الإجابة هي المعرف الصحيح للمشروع. ومن ثم يتم تحديد نموذج البيانات تلقائيًا إذا كان هو النموذج الوحيد.

project = client.select_project()   
data_model = project.select_data_model()

الخطوة 3: استكشاف مجموعة البيانات الخاصة بك

هناك عدد من الطرق التي أعدتها AtScale في مكتبة مكونات AI-Link. فهي تسمح باستكشاف كتالوج البيانات لديك، والاستعلام عن البيانات، وحتى استيعاب بعض البيانات مرة أخرى. تحتوي وثائق AtScale على مرجع شامل لواجهة برمجة التطبيقات (API) يصف كل ما هو متاح.
دعونا أولاً نرى ما هي مجموعة البيانات لدينا عن طريق استدعاء بعض طرق data_model:

data_model.get_features()
data_model.get_all_categorical_feature_names()
data_model.get_all_numeric_feature_names()

يجب أن يبدو الإخراج مثل هذا

Bridge AI/ML with your Adaptive Analytics solution

بمجرد أن ننظر حولنا قليلاً، يمكننا الاستعلام عن البيانات الفعلية التي نهتم بها باستخدام طريقة "get_data". سيعود مرة أخرى إلى DataFrame الباندا الذي يحتوي على نتائج الاستعلام.

df = data_model.get_data(feature_list = ['Country','Region','m_AmountOfSale_sum'])
df = df.sort_values(by='m_AmountOfSale_sum')
df.head()

والتي سوف تظهر datadrame الخاص بك:

Bridge AI/ML with your Adaptive Analytics solution

دعونا نجهز بعض مجموعات البيانات ونعرضها بسرعة على الرسم البياني

import matplotlib.pyplot as plt

# We're taking sales for each date
dataframe = data_model.get_data(feature_list = ['Date','m_AmountOfSale_sum'])

# Create a line chart
plt.plot(dataframe['Date'], dataframe['m_AmountOfSale_sum'])

# Add labels and a title
plt.xlabel('Days')
plt.ylabel('Sales')
plt.title('Daily Sales Data')

# Display the chart
plt.show()

الإخراج:

Bridge AI/ML with your Adaptive Analytics solution

الخطوة 4: التنبؤ

الخطوة التالية هي الحصول على بعض القيمة من جسر AI-Link - فلنقم ببعض التنبؤات البسيطة!

# Load the historical data to train the model
data_train = data_model.get_data(
    feature_list = ['Date','m_AmountOfSale_sum'],
    filter_less = {'Date':'2021-01-01'}
    )
data_test = data_model.get_data(
    feature_list = ['Date','m_AmountOfSale_sum'],
    filter_greater = {'Date':'2021-01-01'}
    )

حصلنا هنا على مجموعتي بيانات مختلفتين: لتدريب نموذجنا واختباره.

# For the tool we've chosen to do the prediction 'Prophet', we'll need to specify 2 columns: 'ds' and 'y'
data_train['ds'] = pd.to_datetime(data_train['Date'])
data_train.rename(columns={'m_AmountOfSale_sum': 'y'}, inplace=True)
data_test['ds'] = pd.to_datetime(data_test['Date'])
data_test.rename(columns={'m_AmountOfSale_sum': 'y'}, inplace=True)

# Initialize and fit the Prophet model
model = Prophet()
model.fit(data_train)

ثم نقوم بإنشاء إطار بيانات آخر لاستيعاب توقعاتنا وعرضه على الرسم البياني

# Create a future dataframe for forecasting
future = pd.DataFrame()
future['ds'] = pd.date_range(start='2021-01-01', end='2021-12-31', freq='D')

# Make predictions
forecast = model.predict(future)
fig = model.plot(forecast)
fig.show()

الإخراج:

Bridge AI/ML with your Adaptive Analytics solution

الخطوة 5: إعادة الكتابة

بمجرد أن نحصل على توقعاتنا في مكانها الصحيح، يمكننا بعد ذلك إعادتها إلى مستودع البيانات وإضافة تجميع إلى نموذجنا الدلالي ليعكسه للمستهلكين الآخرين. سيكون التنبؤ متاحًا من خلال أي أداة أخرى لذكاء الأعمال لمحللي ذكاء الأعمال ومستخدمي الأعمال.
سيتم وضع التنبؤ نفسه في مستودع البيانات الخاص بنا وتخزينه هناك.

from atscale.db.connections import Iris
db = Iris(
username,
host,
namespace,
driver,
schema,
port=1972,
password=None,
warehouse_id=None
)

data_model.writeback(dbconn=db,
table_name= 'SalesPrediction',
DataFrame = forecast)

data_model.create_aggregate_feature(dataset_name='SalesPrediction',
column_name='SalesForecasted',
name='sum_sales_forecasted',
aggregation_type='SUM')




الزعنفة

هذا كل شيء!
حظا سعيدا في توقعاتك!

بيان الافراج تم نشر هذه المقالة على: https://dev.to/intersystems/bridge-aiml-with-your-adaptive-analytics-solution-24d3?1 إذا كان هناك أي انتهاك، يرجى الاتصال بـ [email protected] لحذفه
أحدث البرنامج التعليمي أكثر>

تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.

Copyright© 2022 湘ICP备2022001581号-3