یک ابزار خوب برای استخراج کلمات کلیدی فارسی! این مجموعه کد برای شناسایی و استخراج کلمات کلیدی از متون فارسی طراحی شده است. این پروژه میتواند در زمینههای سئو، تولید محتوا، تحلیل متون و دیگر کاربردهای مرتبط با پردازش زبان فارسی بسیار مفید باشد.
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - E-Ghafour/Persian_Embedrank_Keyphrase_Extraction: extracting the keyword of the persian texts
extracting the keyword of the persian texts. Contribute to E-Ghafour/Persian_Embedrank_Keyphrase_Extraction development by creating an account on GitHub.
🔥4👍1
Forwarded from Ali
سلام
معرفی دیتاست
تمام ویکیپدیا فارسی با ساختار و استفاده راحت
https://huggingface.co/datasets/codersan/Persian-Wikipedia-Corpus
معرفی دیتاست
تمام ویکیپدیا فارسی با ساختار و استفاده راحت
https://huggingface.co/datasets/codersan/Persian-Wikipedia-Corpus
huggingface.co
codersan/Persian-Wikipedia-Corpus · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
🔥8👍6👎2
یه دیتاست فوقالعاده برای علاقهمندان به پردازش زبان طبیعی و تشخیص نیت! دیتاست Persian ATIS شامل مکالمات و سوالات متنی به زبان فارسی و مرتبط با آژانس هواپیمایی است که به نیتها و اسلاتهای مختلف برچسبگذاری شدهاند. این مجموعه داده میتونه به شما کمک کنه تا مدلهای یادگیری ماشین و تحلیل زبان طبیعی بهتری برای زبان فارسی بسازید.
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - DSInCenter/Persian-Atis: This repository contains the dataset of the article "A Persian Benchmark for Joint Intent Detection…
This repository contains the dataset of the article "A Persian Benchmark for Joint Intent Detection and Slot Filling" arxiv.org/abs/2303.00408 - DSInCenter/Persian-Atis
👍5
این ریپازیتوری یک مجموعهی جذاب و کاربردی از دیتاستهای ایرانی را گردآوری کرده است. توسط این لینک میتوانید به بهترین منابع داده دسترسی پیدا کنید که برای پروژههای تحقیقاتی و کاربردهای مختلف از جمله یادگیری ماشین، تحلیل داده و تحقیقات آماری بسیار مفید هستند. اگر به دنبال دیتاستهای معتبر و متنوع برای کارهای تحقیقی و پروژههای هوش مصنوعی خود هستید، حتماً این ریپازیتوری را بررسی کنید!
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - MEgooneh/awesome-Iran-datasets: Iranian/Persian Datasets. دیتاستهای فارسی و ایرانی
Iranian/Persian Datasets. دیتاستهای فارسی و ایرانی - MEgooneh/awesome-Iran-datasets
👍7❤1
این پروژه یک تحلیل جامع از دادههای جستجوهای گوگل درباره هتلها و اقامتگاههای ایرانی است. با استفاده از ابزارهای تحلیل کلانداده و دادهکاوی، روندها، میزان تقاضا و الگوهای جستجو برای این صنعت ارزشمند را بررسی میکند. این دادهها میتوانند به مدیران هتلها، استارتاپهای گردشگری و برنامهریزان سفر کمک کنند تا تصمیمهای آیندهنگرانهتری بگیرند و خدمات خود را بهبود ببخشند.
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - sohrabovsky/gtrend_for_iranian_hotels_industry: Decomposition of google trend results for top 10 cities with highest demands…
Decomposition of google trend results for top 10 cities with highest demands in Hotel industry of Iran and its comparision with sales of one of Iranian OTAs. - sohrabovsky/gtrend_for_iranian_hotels...
کد فاین تیون کردن مدل های پرسش و پاسخ روی دیتاست فارسی
📱 GitHub Repo https://github.com/AliBagherz/PersianQa
📱 GitHub Repo https://github.com/AliBagherz/PersianQa
GitHub
GitHub - AliBagherz/PersianQa: Persian Qa Model Training codes sample
Persian Qa Model Training codes sample. Contribute to AliBagherz/PersianQa development by creating an account on GitHub.
👍3
پروژه وب اسکرپینگ آگهی های خونه تهران در سایت دیوار همراه با دیتاست استخراج شده
1. پروژه وباسکرپینگ در گیتهاب
لینک:
https://github.com/ErfanNahidi/divar-webscraping
این پروژه شامل کدی برای جمعآوری اطلاعات آگهیهای فروش خانه از سایت دیوار است. ابزارهای استفادهشده در این پروژه شامل کتابخانههای BeautifulSoup، Selenium و دیگر ابزارهای پایتون برای انجام عملیات وباسکرپینگ هستند. همچنین توضیحات و راهنماهای کامل برای اجرای پروژه و سفارشیسازی جمعآوری دادهها در دسترس است. ( این پروژه به مرور زمان آپدیت و تکمیل میشه در حال حاضر باگ و کمبود های زیاد داره و همچنین در آینده برای دسته بندی آگهی ها هم توسعه داده میشه )
2. دیتاست استخراج شده آگهیهای فروش خانه در تهران
لینک: https://www.kaggle.com/datasets/erfannahidi/house-for-sale-ads-on-divar-site-iran-tehran
این دیتاست شامل اطلاعات جمعآوریشده از آگهیهای فروش خانه در تهران است که ویژگیهایی نظیر متراژ، قیمت، منطقه، امکانات خانه و سایر جزئیات را در بر میگیرد. این منبع میتواند برای تحلیلهای دادهای، مدلسازی قیمتگذاری، و انجام پروژههای یادگیری ماشین در حوزه املاک مورد استفاده قرار گیرد.
نکته : دیتا استخراج شده به صورت عمد به شکل کثیف و خام گذاشته شده تا شما بر اساس خلاقیت و راه کار های خودتون با این دیتاست کار کنید همچنین تجربه ای از کار کردن با یک دیتاست کاملا واقعی داشته باشید
یه پیشنهاد جالب : با توسعه یه مدل nlp از قسمت توضیحات باقی اطلاعات رو میتونید استخراج کنید
کاربردها:
تحلیل بازار املاک تهران
پیشبینی قیمت خانه با استفاده از الگوریتمهای یادگیری ماشین
استخراج الگوها و روندها در آگهیهای فروش خانه
این دو منبع بهویژه برای علاقهمندان به دادهکاوی و یادگیری ماشین که به دنبال کار روی دادههای واقعی هستند، بسیار مفید خواهد بود.
---
1. پروژه وباسکرپینگ در گیتهاب
لینک:
https://github.com/ErfanNahidi/divar-webscraping
این پروژه شامل کدی برای جمعآوری اطلاعات آگهیهای فروش خانه از سایت دیوار است. ابزارهای استفادهشده در این پروژه شامل کتابخانههای BeautifulSoup، Selenium و دیگر ابزارهای پایتون برای انجام عملیات وباسکرپینگ هستند. همچنین توضیحات و راهنماهای کامل برای اجرای پروژه و سفارشیسازی جمعآوری دادهها در دسترس است. ( این پروژه به مرور زمان آپدیت و تکمیل میشه در حال حاضر باگ و کمبود های زیاد داره و همچنین در آینده برای دسته بندی آگهی ها هم توسعه داده میشه )
2. دیتاست استخراج شده آگهیهای فروش خانه در تهران
لینک: https://www.kaggle.com/datasets/erfannahidi/house-for-sale-ads-on-divar-site-iran-tehran
این دیتاست شامل اطلاعات جمعآوریشده از آگهیهای فروش خانه در تهران است که ویژگیهایی نظیر متراژ، قیمت، منطقه، امکانات خانه و سایر جزئیات را در بر میگیرد. این منبع میتواند برای تحلیلهای دادهای، مدلسازی قیمتگذاری، و انجام پروژههای یادگیری ماشین در حوزه املاک مورد استفاده قرار گیرد.
نکته : دیتا استخراج شده به صورت عمد به شکل کثیف و خام گذاشته شده تا شما بر اساس خلاقیت و راه کار های خودتون با این دیتاست کار کنید همچنین تجربه ای از کار کردن با یک دیتاست کاملا واقعی داشته باشید
یه پیشنهاد جالب : با توسعه یه مدل nlp از قسمت توضیحات باقی اطلاعات رو میتونید استخراج کنید
کاربردها:
تحلیل بازار املاک تهران
پیشبینی قیمت خانه با استفاده از الگوریتمهای یادگیری ماشین
استخراج الگوها و روندها در آگهیهای فروش خانه
این دو منبع بهویژه برای علاقهمندان به دادهکاوی و یادگیری ماشین که به دنبال کار روی دادههای واقعی هستند، بسیار مفید خواهد بود.
---
Kaggle
House for sale ads on Divar site (Iran, Tehran)
Nearly 3050 ads have been scrap from the website.The point is this data is dirty
👍11❤5
یه دیتابیس جامع از فرصتهای شغلی حوزه داده در ایران!
این مجموعه داده حاوی اطلاعات مربوط به آگهیهای شغلی مرتبط با علوم داده و مهندسی داده در کشور ایران است. اطلاعات شامل جزئیاتی مانند عنوان شغل، نام شرکت، موقعیت جغرافیایی، حقوق پیشنهادی و تاریخ انتشار آگهی هستند. این دیتاست میتواند برای تحلیل روندهای بازار کار، شناسایی فرصتهای شغلی و تحقیق در مورد نیازهای شغلی در حوزه داده مورد استفاده قرار گیرد.
📱 GitHub Repo
این مجموعه داده حاوی اطلاعات مربوط به آگهیهای شغلی مرتبط با علوم داده و مهندسی داده در کشور ایران است. اطلاعات شامل جزئیاتی مانند عنوان شغل، نام شرکت، موقعیت جغرافیایی، حقوق پیشنهادی و تاریخ انتشار آگهی هستند. این دیتاست میتواند برای تحلیل روندهای بازار کار، شناسایی فرصتهای شغلی و تحقیق در مورد نیازهای شغلی در حوزه داده مورد استفاده قرار گیرد.
📱 GitHub Repo
GitHub
GitHub - arghavanaslani/IranDataJobs: Web Scraping Project for Data Job Postings in August 2023
Web Scraping Project for Data Job Postings in August 2023 - arghavanaslani/IranDataJobs
👍8🔥1
سلام دوستان 👋
قطعا برای همهمون پیش اومده که وسط یه پروژه نیاز داریم تعطیلات رسمی تقویم جلالی (شمسی) رو داشته باشیم اما سورس قابل اطمینانی هم براش پیدا نکنیم!
من یه اسکرپر ساده و کاربردی نوشتم که تعطیلات رسمی تقویم رو به همراه تاریخهای معادل میلادی در قالب یک دیتافریم یا فایل CSV خروجی میده.
فقط کافیه سال مورد نظرتون رو مشخص کنید و کد رو اجرا کنید.
این ابزار به راحتی قابل استفادهست و میتونه برای پروژههای مختلف شما خیلی مفید باشه.
خوشحال میشم نظرات و پیشنهاداتتون رو بدونم و اگر دوست داشتین، به پروژه روی گیتهاب استار ⭐ بدین.
منتظرتون هستم 😉
https://github.com/DehghanianSina/IR_Holidays_Scraper
قطعا برای همهمون پیش اومده که وسط یه پروژه نیاز داریم تعطیلات رسمی تقویم جلالی (شمسی) رو داشته باشیم اما سورس قابل اطمینانی هم براش پیدا نکنیم!
من یه اسکرپر ساده و کاربردی نوشتم که تعطیلات رسمی تقویم رو به همراه تاریخهای معادل میلادی در قالب یک دیتافریم یا فایل CSV خروجی میده.
فقط کافیه سال مورد نظرتون رو مشخص کنید و کد رو اجرا کنید.
این ابزار به راحتی قابل استفادهست و میتونه برای پروژههای مختلف شما خیلی مفید باشه.
خوشحال میشم نظرات و پیشنهاداتتون رو بدونم و اگر دوست داشتین، به پروژه روی گیتهاب استار ⭐ بدین.
منتظرتون هستم 😉
https://github.com/DehghanianSina/IR_Holidays_Scraper
GitHub
GitHub - DehghanianSina/IR_Holidays_Scraper: Python scraper for Time.ir to generate a comprehensive Jalali-Gregorian calendar with…
Python scraper for Time.ir to generate a comprehensive Jalali-Gregorian calendar with holiday details. Includes web scraping, date conversion, and data merging using BeautifulSoup, jdatetime, and p...
👍13❤6🔥2
یک دیتاست باحال واسه تبدیل متن فارسی محاوره به رسمی
این دیتاست شامل زیرنویسهای محاورهای و رسمی شده فارسی برای کاربردهای پردازش زبان طبیعی است. این مجموعه که شامل تغییرات جملات از فرم محاورهای به فرم رسمی است، میتواند در پروژههای تبدیل متن محاورهای به متن رسمی، تحلیل ترجمه و سایر کاربردهای مرتبط با پردازش زبان فارسی بسیار مفید باشد. این مجموعه داده به شما اجازه میدهد تا مدلهای خود را روی دادههای واقعی آموزش دهید و بهبود دهید. برای کسانی که در حوزه پردازش زبان طبیعی (NLP) و ترجمه ماشینی فعالیت میکنند، این دیتاست یک منبع ارزشمند است.
📱 GitHub Repo
این دیتاست شامل زیرنویسهای محاورهای و رسمی شده فارسی برای کاربردهای پردازش زبان طبیعی است. این مجموعه که شامل تغییرات جملات از فرم محاورهای به فرم رسمی است، میتواند در پروژههای تبدیل متن محاورهای به متن رسمی، تحلیل ترجمه و سایر کاربردهای مرتبط با پردازش زبان فارسی بسیار مفید باشد. این مجموعه داده به شما اجازه میدهد تا مدلهای خود را روی دادههای واقعی آموزش دهید و بهبود دهید. برای کسانی که در حوزه پردازش زبان طبیعی (NLP) و ترجمه ماشینی فعالیت میکنند، این دیتاست یک منبع ارزشمند است.
📱 GitHub Repo
GitHub
GitHub - SaeeSaadat/NLP_informal2formal_subnoscript_dataset: This code is used to prepare dataset from opus.nlpl.eu, to be used in…
This code is used to prepare dataset from opus.nlpl.eu, to be used in a persian informal to formal text converter project. - SaeeSaadat/NLP_informal2formal_subnoscript_dataset
👍7
این دیتاست ارزیابی عملکرد مدلهای GPT در زبان فارسی تهیه شده است. دیتاست شامل مجموعهای از سوالات و پاسخها به زبان فارسی است که امکان بررسی و تحلیل کیفیت و دقت مدلهای پردازش زبان طبیعی (NLP) مانند GPT را فراهم میکند. از این دیتاست میتوان برای ارزیابی مدلهای مختلف یادگیری عمیق و بهبود عملکرد آنها در فهم و تولید زبان فارسی استفاده کرد. مناسب برای محققین و توسعهدهندگان در حوزه پردازش زبان طبیعی.
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - Anonymous2024LRECS/GPT_Persian_Eval
Contribute to Anonymous2024LRECS/GPT_Persian_Eval development by creating an account on GitHub.
👍6
یک لیست جامع از تمامی دیتاست هایی که واسه زبان فارسی و روی تسک SA یا تحلیل احساسات تهیه شدن
📱 GitHub Repo
📱 GitHub Repo
GitHub
GitHub - Keramatfar/Persian_NLP_Datasets: A reference for Persian NLP datasets.
A reference for Persian NLP datasets. Contribute to Keramatfar/Persian_NLP_Datasets development by creating an account on GitHub.
👍3❤1
🌟 یک ابزار کاربردی برای مقایسه صندوقهای سرمایهگذاری ایرانی 🌟
این پروژه به شما امکان میدهد تا عملکرد صندوقهای سرمایهگذاری مختلف در بازار سهام ایران را به سادگی و با دقت مقایسه کنید. با استفاده از این ابزار، اطلاعات ارزشمندی همچون بازدهی، نوسانات و شاخصهای مالی دیگر به طور جامع و تحلیلشده در دسترس شما خواهد بود. این ابزار مناسب برای تحلیلگران مالی، سرمایهگذاران و حتی علاقهمندان به بازار سهام است که میخواهند تصمیمات هوشمندانهتری بگیرند.
🚀به راحتی میتوانید از این ابزار در پروژههای مالی، تحلیلهای بورس و حتی در تحقیقات خود استفاده کنید.
📱 GitHub Repo
این پروژه به شما امکان میدهد تا عملکرد صندوقهای سرمایهگذاری مختلف در بازار سهام ایران را به سادگی و با دقت مقایسه کنید. با استفاده از این ابزار، اطلاعات ارزشمندی همچون بازدهی، نوسانات و شاخصهای مالی دیگر به طور جامع و تحلیلشده در دسترس شما خواهد بود. این ابزار مناسب برای تحلیلگران مالی، سرمایهگذاران و حتی علاقهمندان به بازار سهام است که میخواهند تصمیمات هوشمندانهتری بگیرند.
🚀به راحتی میتوانید از این ابزار در پروژههای مالی، تحلیلهای بورس و حتی در تحقیقات خود استفاده کنید.
📱 GitHub Repo
GitHub
GitHub - anvaari/compair_iranian_stock_funds: این ریپو شامل کد مقایسه صندوق های سرمایه گذاری بورسی ایران و همچنین فایل اکسل این…
این ریپو شامل کد مقایسه صندوق های سرمایه گذاری بورسی ایران و همچنین فایل اکسل این دیتا ها تا انتهای مرداد 99 میباشد - anvaari/compair_iranian_stock_funds
👍1
✨ تحلیل جامع فیلمهای ایرانی🎥📊
این مخزن گیتهاب شامل تحلیل و بررسی دادههای مربوط به فیلمهای ایرانی است. دادهها از منابع معتبر جمعآوری شده و ویژگیهایی مانند عنوان فیلم، ژانر، کارگردان، سال تولید، امتیاز کاربران و فروش را شامل میشود. این مجموعه داده ارزشمند میتواند برای پروژههای دادهکاوی، تحلیلهای آماری و حتی هوش مصنوعی مورد استفاده قرار گیرد. با این دادهها میتوانید شناخت بهتری از صنعت سینمای ایران پیدا کنید و الگوهای جالبی را کشف کنید.
شاد و پرانرژی باشید! 🚀✨
📱 GitHub Repo
این مخزن گیتهاب شامل تحلیل و بررسی دادههای مربوط به فیلمهای ایرانی است. دادهها از منابع معتبر جمعآوری شده و ویژگیهایی مانند عنوان فیلم، ژانر، کارگردان، سال تولید، امتیاز کاربران و فروش را شامل میشود. این مجموعه داده ارزشمند میتواند برای پروژههای دادهکاوی، تحلیلهای آماری و حتی هوش مصنوعی مورد استفاده قرار گیرد. با این دادهها میتوانید شناخت بهتری از صنعت سینمای ایران پیدا کنید و الگوهای جالبی را کشف کنید.
شاد و پرانرژی باشید! 🚀✨
📱 GitHub Repo
GitHub
GitHub - hoseinmrh/Iranian_movies_analysis: Analysis the data of Persian language movies data
Analysis the data of Persian language movies data. Contribute to hoseinmrh/Iranian_movies_analysis development by creating an account on GitHub.
👍1
Forwarded from Shahriar Shariati
انتشار مجموعه دادگان عظیم ParsBench
تیم ParsBench مجموعهای بیش از ۱۰۰هزار رکورد داده سوال و جواب فارسی در بیش از ۵۰ موضوع مختلف برای Fine-tuning و Evaluation منتشر کرده است.
این مجموعه شامل دیتاستهای زیر میباشد:
PersianSyntheticQA
مجموعهای از ۱۰۰هزار سوال و جواب فارسی با محوریت ایران و جهان در ۵۰ موضوع مختلف. هر موضوع شامل ۲هزار سوال و جواب مجزا میباشد که توسط gpt-4o تولید شده است.
PersianQA (LMSYS)
دیتاست شامل ۵ هزار رکورد ترجمه شده از دیتاست سوال و جواب lmsys است و شامل موضوعات مختلفی از تعاملات کاربران با مدلهای زبانی میباشد.
Persian-NoRobots
نسخه ترجمه شده از دیتاست اصلی NoRobots که شامل ۱۰هزار سوال و جواب در ۱۰ دستهبندی مختلف مانند خلاصهسازی، تولید متن، گفتگو، کدنویسی و... میباشد.
نسخه اصلی این دیتاست کاملاً توسط انسان و بدون دخالت هیچ LLMای ساخته شدهاست.
PersianSyntheticEmotions
شامل تقریباً ۹هزار رکورد از متون ایجاد شده توسط gpt-4o در موضوعات مختلف است که همگی شامل برچسب احساسات در ۶ کلاس احساسات Ekman میباشند.
Persian-MuSR
ترجمه فارسی MuSR است که شامل حدوداً هزار سوال معمایی برای سنجش توانایی تحلیل LLM با روش CoT میباشد.
همچنین شما میتوانید در این ریپازیتوری به کدهای استفاده شده برای ایجاد این دیتاستها دسترسی پیدا کنید.
تیم ParsBench مجموعهای بیش از ۱۰۰هزار رکورد داده سوال و جواب فارسی در بیش از ۵۰ موضوع مختلف برای Fine-tuning و Evaluation منتشر کرده است.
این مجموعه شامل دیتاستهای زیر میباشد:
PersianSyntheticQA
مجموعهای از ۱۰۰هزار سوال و جواب فارسی با محوریت ایران و جهان در ۵۰ موضوع مختلف. هر موضوع شامل ۲هزار سوال و جواب مجزا میباشد که توسط gpt-4o تولید شده است.
PersianQA (LMSYS)
دیتاست شامل ۵ هزار رکورد ترجمه شده از دیتاست سوال و جواب lmsys است و شامل موضوعات مختلفی از تعاملات کاربران با مدلهای زبانی میباشد.
Persian-NoRobots
نسخه ترجمه شده از دیتاست اصلی NoRobots که شامل ۱۰هزار سوال و جواب در ۱۰ دستهبندی مختلف مانند خلاصهسازی، تولید متن، گفتگو، کدنویسی و... میباشد.
نسخه اصلی این دیتاست کاملاً توسط انسان و بدون دخالت هیچ LLMای ساخته شدهاست.
PersianSyntheticEmotions
شامل تقریباً ۹هزار رکورد از متون ایجاد شده توسط gpt-4o در موضوعات مختلف است که همگی شامل برچسب احساسات در ۶ کلاس احساسات Ekman میباشند.
Persian-MuSR
ترجمه فارسی MuSR است که شامل حدوداً هزار سوال معمایی برای سنجش توانایی تحلیل LLM با روش CoT میباشد.
همچنین شما میتوانید در این ریپازیتوری به کدهای استفاده شده برای ایجاد این دیتاستها دسترسی پیدا کنید.
👍8👎1
Forwarded from دیتاهاب
#فرصت_شغلی
🟢 شرکت: دیتاهاب (data-hub.ir)
🟠 شرح موقعیت شغلی: کارشناس تولید محتوا برای شبکه های اجتماعی
〰️〰️〰️〰️〰️〰️〰️
🟠 نیازمندی ها:
❇️ تجربه در زمینه آماده سازی تقویم محتوایی و نویسندگی، به ویژه در حوزه فناوری و هوش مصنوعی
❇️ مهارت در روایت داستان و توانایی خلق محتوایی که با مخاطب ارتباط عاطفی برقرار کند.
❇️ تجربه ضبط محتوای تصویری شامل عکس و ویدئو در حد موبایل گرافی ساده (محتوای روزانه)
〰️〰️〰️〰️〰️〰️〰️
🟠مزایا: ساعت کاری شناور و با امکان دورکاری (بعضی از روزها)
در صورت نیاز، زیر نظر یک متخصص باسابقه حوزه دیجیتال مارکتینگ آموزش های لازم داده میشود و همچنین بسته های آموزشی به صورت رایگان تهیه خواهد شد.
〰️〰️〰️〰️〰️〰️〰️
🟠 معرفی شرکت: فعال در حوزه آموزش و اجرای پروژه های هوش مصنوعی
〰️〰️〰️〰️〰️〰️〰️
⭕️موقعیت شرکت: اصفهان - خیابان سلمان
⭕️حداقل سابقه کار: 1 سال
⭕️نوع همکاری: تمام وقت|پاره وقت
⭕️وضعیت نظام وظیفه: مهم نیست
ارسال رزومه به 👇
📩 info@data-hub.ir
@Data_hub
https://jobvision.ir/jobs/975930
🟢 شرکت: دیتاهاب (data-hub.ir)
🟠 شرح موقعیت شغلی: کارشناس تولید محتوا برای شبکه های اجتماعی
〰️〰️〰️〰️〰️〰️〰️
🟠 نیازمندی ها:
❇️ تجربه در زمینه آماده سازی تقویم محتوایی و نویسندگی، به ویژه در حوزه فناوری و هوش مصنوعی
❇️ مهارت در روایت داستان و توانایی خلق محتوایی که با مخاطب ارتباط عاطفی برقرار کند.
❇️ تجربه ضبط محتوای تصویری شامل عکس و ویدئو در حد موبایل گرافی ساده (محتوای روزانه)
〰️〰️〰️〰️〰️〰️〰️
🟠مزایا: ساعت کاری شناور و با امکان دورکاری (بعضی از روزها)
در صورت نیاز، زیر نظر یک متخصص باسابقه حوزه دیجیتال مارکتینگ آموزش های لازم داده میشود و همچنین بسته های آموزشی به صورت رایگان تهیه خواهد شد.
〰️〰️〰️〰️〰️〰️〰️
🟠 معرفی شرکت: فعال در حوزه آموزش و اجرای پروژه های هوش مصنوعی
〰️〰️〰️〰️〰️〰️〰️
⭕️موقعیت شرکت: اصفهان - خیابان سلمان
⭕️حداقل سابقه کار: 1 سال
⭕️نوع همکاری: تمام وقت|پاره وقت
⭕️وضعیت نظام وظیفه: مهم نیست
ارسال رزومه به 👇
📩 info@data-hub.ir
@Data_hub
https://jobvision.ir/jobs/975930
جاب ویژن
استخدام کارشناس تولید محتوا در دیتاهاب
برای مشاهده آگهی استخدام کارشناس تولید محتوا در دیتاهاب کلیک کنید و رزومه خود را به صورت رایگان ارسال کنید
👍2
🔻 فـــراخوان دریافت مقالات در حوزه هوش معنوی و هوش مصنوعی
🔻نشریه پژوهشهای ادب عرفانی، در نظر دارد شماره پاییز و زمستان سال 1403 را با عنوان "هوش معنوی و هوش مصنوعی (تعامل ادبیات عرفانی و هوش مصنوعی)" منتشر نماید.
🔻علاقهمندان میتوانند محورها و راهنمای ارسال مقالات را از طریق سامانه نشریه مطالعه کنند و تا تاریخ ۳۰ دیماه مقالات خود را ارسال نمایند.
همچنین برای کسب اطلاعات بیشتر با راههای ارتباطی نشریه تماس بگیرند.
🌐 https://jpll.ui.ac.ir/
📧 jpll@res.ui.ac.ir
🔻نشریه پژوهشهای ادب عرفانی، در نظر دارد شماره پاییز و زمستان سال 1403 را با عنوان "هوش معنوی و هوش مصنوعی (تعامل ادبیات عرفانی و هوش مصنوعی)" منتشر نماید.
🔻علاقهمندان میتوانند محورها و راهنمای ارسال مقالات را از طریق سامانه نشریه مطالعه کنند و تا تاریخ ۳۰ دیماه مقالات خود را ارسال نمایند.
همچنین برای کسب اطلاعات بیشتر با راههای ارتباطی نشریه تماس بگیرند.
🌐 https://jpll.ui.ac.ir/
📧 jpll@res.ui.ac.ir
👍6👎2❤1