Презентации с ICML
Наткнулся на ссылку со всеми презентациями конференции ICML (International Conference on Machine Learning) 2023.
https://slideslive.com/icml-2023
#datascience
Наткнулся на ссылку со всеми презентациями конференции ICML (International Conference on Machine Learning) 2023.
https://slideslive.com/icml-2023
#datascience
🔥3
FreeU: Free Lunch in Diffusion U-Net
In this paper, the untapped capabilities of diffusion U-Net are explored, revealing a significant potential referred to enhance generation quality dynamically. The authors introduce "FreeU," a simplistic yet highly effective method designed to amplify generation quality without the necessity for additional training or fine-tuning.
The essence of FreeU is in its strategic re-weighting of the contributions from the U-Net's skip connections and backbone feature maps, allowing for a harmonious balance between the strengths of both components of the U-Net architecture. The method has demonstrated promising results in image and video generation tasks, proving its seamless integrative capability with existing diffusion models like Stable Diffusion, DreamBooth, ModelScope, Rerender, and ReVersion to elevate generation quality by simply adjusting two scaling factors during inference.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
In this paper, the untapped capabilities of diffusion U-Net are explored, revealing a significant potential referred to enhance generation quality dynamically. The authors introduce "FreeU," a simplistic yet highly effective method designed to amplify generation quality without the necessity for additional training or fine-tuning.
The essence of FreeU is in its strategic re-weighting of the contributions from the U-Net's skip connections and backbone feature maps, allowing for a harmonious balance between the strengths of both components of the U-Net architecture. The method has demonstrated promising results in image and video generation tasks, proving its seamless integrative capability with existing diffusion models like Stable Diffusion, DreamBooth, ModelScope, Rerender, and ReVersion to elevate generation quality by simply adjusting two scaling factors during inference.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
🔥2
Как рекрутёры привлекают DS
Получил тут письмо с вакансией, а в конце письма был мемасик.
#datascience
Получил тут письмо с вакансией, а в конце письма был мемасик.
#datascience
😁8🔥1
DreamLLM: Synergistic Multimodal Comprehension and Creation
DreamLLM introduces a novel learning framework designed for the robust integration of multimodal comprehension and creation in Multimodal Large Language Models. This model stands out by utilizing two primary principles. Firstly, it focuses on generative modeling for both language and image facets by directly sampling in the untapped raw multimodal domain. This method effectively sidesteps the constraints and data loss tied to traditional external feature extractors such as CLIP, leading to a deeper and more comprehensive grasp of multimodal data.
Secondly, DreamLLM emphasizes the generation of raw, interleaved documents, capturing both textual and visual elements as well as their free-form layouts. This strategy equips DreamLLM to adeptly learn all the nuances of conditional, marginal, and joint multimodal distributions. As a testament to its advanced capabilities, DreamLLM is highlighted as the pioneering MLLM to produce free-form interleaved content.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
DreamLLM introduces a novel learning framework designed for the robust integration of multimodal comprehension and creation in Multimodal Large Language Models. This model stands out by utilizing two primary principles. Firstly, it focuses on generative modeling for both language and image facets by directly sampling in the untapped raw multimodal domain. This method effectively sidesteps the constraints and data loss tied to traditional external feature extractors such as CLIP, leading to a deeper and more comprehensive grasp of multimodal data.
Secondly, DreamLLM emphasizes the generation of raw, interleaved documents, capturing both textual and visual elements as well as their free-form layouts. This strategy equips DreamLLM to adeptly learn all the nuances of conditional, marginal, and joint multimodal distributions. As a testament to its advanced capabilities, DreamLLM is highlighted as the pioneering MLLM to produce free-form interleaved content.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
🔥4👍1
Speak plugin in ChatGPT for practicing languages
Я сегодня открыл для себя plugin Speak в ChatGPT - он предназначен для практики любых языков. Я попробовал - в целом выглядит любопытно, можно использовать, когда хочешь попрактиковать какую-то конкретную тему.
#languages
Я сегодня открыл для себя plugin Speak в ChatGPT - он предназначен для практики любых языков. Я попробовал - в целом выглядит любопытно, можно использовать, когда хочешь попрактиковать какую-то конкретную тему.
#languages
🔥7
Необычные идеи пет-проектов
Иногда я вижу вопросы о том, как придумать оригинальную идею пет-проекта или просто анализа данных и сетования на то, что простые идеи все разобрали, а для сложных надо много данных и железа.
Вот сегодня я увидел прекрасное исследование данных - маленький датасет, простой анализ, но оригинальность зашкаливает 😁
https://juliasilge.com/blog/roy-kent/
#datascience
Иногда я вижу вопросы о том, как придумать оригинальную идею пет-проекта или просто анализа данных и сетования на то, что простые идеи все разобрали, а для сложных надо много данных и железа.
Вот сегодня я увидел прекрасное исследование данных - маленький датасет, простой анализ, но оригинальность зашкаливает 😁
https://juliasilge.com/blog/roy-kent/
#datascience
😁5👍2
Занимательная сатирическая статья со "сравнением" бойфренда и прекрасного GhadGPT.
https://jabde.com/2023/09/25/replacing-boyfriend-with-generative-ai/
#datascience
https://jabde.com/2023/09/25/replacing-boyfriend-with-generative-ai/
#datascience
🔥3
Duolingo leagues
Duolingo - одно из самых популярных приложений для изучения иностранных языков. О плюсах и минусах Duolingo можно говорить много, но сейчас я хотел бы поговорить о геймификации.
Когда мы выполняем действия на Duolingo, например, проходим уроки, мы получаем опыт. Раньше каждый язык имел уровни, и максимальный уровень был 25. Сейчас основная роль у опыта - мотивировать людей участвовать в лигах.
Если у вас есть публичный профиль, вы автоматически участвуете в лигах. Каждую неделю вы попадаете в группу с людьми, которые имеют схожий темп обучения, и соревнуетесь по количеству заработанного опыта. Если вы оказываетесь в топе, вы попадаете в следующую лигу и получаете немного gems/lingots. Если нет, то остаётесь в текущей лиге или откатываетесь в предыдущую. На данный момент существует 10 лиг: Bronze, Silver, Gold, Sapphire, Ruby, Emerald, Amethyst, Pearl, Obsidian и Diamond.
Кроме того, если вы попадаете в Алмазную лигу, у вас будет возможность участвовать в турнире. Если в течение трёх недель вы удерживаетесь в топ-10, вы получаете красивую достижение (и отдельное достижение, если заняли первое место).
Я однажды смог достичь первого места в турнире (во многом благодаря удаче)... и не рекомендую так делать. Как обычно, в системе с геймификацией найдутся люди, которые будут стремиться победить любой ценой. Есть люди, которые используют ботов - эти боты выполняют простейшие задания множество раз и накапливают опыт. Есть люди, которые делят один аккаунт с несколькими людьми. И, конечно, есть люди, которые просто тратят много времени на Duolingo.
Для наглядности вот скриншот с моим участием в турнире на этой неделе. Как видно, у первых двух участников за неделю набрано в 6+ раз больше опыта, чем у остальных. Не могу сказать за других, но я обычно уделяю Duolingo 1-1.5 часа в день (правда теперь планирую заниматься на Duolingo значительно меньше, ибо получаю все меньше пользы), так что для набора 70к опыта мне пришлось бы сидеть на Duolingo по полдня.
#languages
Duolingo - одно из самых популярных приложений для изучения иностранных языков. О плюсах и минусах Duolingo можно говорить много, но сейчас я хотел бы поговорить о геймификации.
Когда мы выполняем действия на Duolingo, например, проходим уроки, мы получаем опыт. Раньше каждый язык имел уровни, и максимальный уровень был 25. Сейчас основная роль у опыта - мотивировать людей участвовать в лигах.
Если у вас есть публичный профиль, вы автоматически участвуете в лигах. Каждую неделю вы попадаете в группу с людьми, которые имеют схожий темп обучения, и соревнуетесь по количеству заработанного опыта. Если вы оказываетесь в топе, вы попадаете в следующую лигу и получаете немного gems/lingots. Если нет, то остаётесь в текущей лиге или откатываетесь в предыдущую. На данный момент существует 10 лиг: Bronze, Silver, Gold, Sapphire, Ruby, Emerald, Amethyst, Pearl, Obsidian и Diamond.
Кроме того, если вы попадаете в Алмазную лигу, у вас будет возможность участвовать в турнире. Если в течение трёх недель вы удерживаетесь в топ-10, вы получаете красивую достижение (и отдельное достижение, если заняли первое место).
Я однажды смог достичь первого места в турнире (во многом благодаря удаче)... и не рекомендую так делать. Как обычно, в системе с геймификацией найдутся люди, которые будут стремиться победить любой ценой. Есть люди, которые используют ботов - эти боты выполняют простейшие задания множество раз и накапливают опыт. Есть люди, которые делят один аккаунт с несколькими людьми. И, конечно, есть люди, которые просто тратят много времени на Duolingo.
Для наглядности вот скриншот с моим участием в турнире на этой неделе. Как видно, у первых двух участников за неделю набрано в 6+ раз больше опыта, чем у остальных. Не могу сказать за других, но я обычно уделяю Duolingo 1-1.5 часа в день (правда теперь планирую заниматься на Duolingo значительно меньше, ибо получаю все меньше пользы), так что для набора 70к опыта мне пришлось бы сидеть на Duolingo по полдня.
#languages
👏2😱2🔥1
DALL-E 3 в Bing
Неожиданно, но похоже, что моделька DALL-E 3 сейчас стала доступна в Bing
Ссылка: https://www.bing.com/images/create/
Обсуждение: https://news.ycombinator.com/item?id=37725498
#datascience
Неожиданно, но похоже, что моделька DALL-E 3 сейчас стала доступна в Bing
Ссылка: https://www.bing.com/images/create/
Обсуждение: https://news.ycombinator.com/item?id=37725498
#datascience
🔥6
LAVIE: High-Quality Video Generation with Cascaded Latent Diffusion Models
This work introduces LaVie, a novel text-to-video generative model designed to synthesize visually realistic and temporally coherent videos, building on the foundation of a pre-trained text-to-image model. The endeavor aims to not only achieve high-quality video synthesis but also to preserve the robust creative generation capabilities inherent in the pre-trained T2I model. LaVie operates on cascaded video latent diffusion models, including a base T2V model, a temporal interpolation model, and a video super-resolution model. The incorporation of simple temporal self-attentions and rotary positional encoding are key innovations, enabling the model to adequately capture the temporal correlations inherent in video data.
To bolster LaVie's performance, a comprehensive and diverse video dataset named Vimeo25M has been contributed, consisting of 25 million text-video pairs that emphasize quality, diversity, and aesthetic appeal. The model has undergone extensive experiments, demonstrating state-of-the-art performance both quantitatively and qualitatively. The process of joint image-video fine-tuning has been validated as pivotal in producing high-quality and creative outcomes. Additionally, the versatility of pre-trained LaVie models is showcased in various applications, including long video generation and personalized video synthesis, highlighting the model's broad applicability and advanced capabilities in the field of video generation technology.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
This work introduces LaVie, a novel text-to-video generative model designed to synthesize visually realistic and temporally coherent videos, building on the foundation of a pre-trained text-to-image model. The endeavor aims to not only achieve high-quality video synthesis but also to preserve the robust creative generation capabilities inherent in the pre-trained T2I model. LaVie operates on cascaded video latent diffusion models, including a base T2V model, a temporal interpolation model, and a video super-resolution model. The incorporation of simple temporal self-attentions and rotary positional encoding are key innovations, enabling the model to adequately capture the temporal correlations inherent in video data.
To bolster LaVie's performance, a comprehensive and diverse video dataset named Vimeo25M has been contributed, consisting of 25 million text-video pairs that emphasize quality, diversity, and aesthetic appeal. The model has undergone extensive experiments, demonstrating state-of-the-art performance both quantitatively and qualitatively. The process of joint image-video fine-tuning has been validated as pivotal in producing high-quality and creative outcomes. Additionally, the versatility of pre-trained LaVie models is showcased in various applications, including long video generation and personalized video synthesis, highlighting the model's broad applicability and advanced capabilities in the field of video generation technology.
Paper link
Project link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
GitHub
GitHub - Vchitect/LaVie: [IJCV 2024] LaVie: High-Quality Video Generation with Cascaded Latent Diffusion Models
[IJCV 2024] LaVie: High-Quality Video Generation with Cascaded Latent Diffusion Models - Vchitect/LaVie
👍3🔥1
Inside the Matrix: Visualizing Matrix Multiplication, Attention and Beyond
Красивые визуализации матричных операций от команды PyTorch. Они сделаны с помощью инструмента для визуализаций https://bhosmer.github.io/mm/ref.html
Начинают с визуализации простых операций, заканчивают визуализацией attention и даже LoRA.
https://pytorch.org/blog/inside-the-matrix/
Красивые визуализации матричных операций от команды PyTorch. Они сделаны с помощью инструмента для визуализаций https://bhosmer.github.io/mm/ref.html
Начинают с визуализации простых операций, заканчивают визуализацией attention и даже LoRA.
https://pytorch.org/blog/inside-the-matrix/
🔥3
XGBoost 2
Удивительно, но нигде не увидел новости о том, что вышла версия XGBoost 2.0.0 - а это ведь одна из самых популярных библиотек для ML.
Самые интересные штуки:
• multi-target regression, multi-label classification и multi-class - до этого подобное я видел только в pyboost
• тренировка на батчах с помощью external memory
• добавили Learning to rank
• улучшенная работа с Pyspark
И много всякого другого.
https://github.com/dmlc/xgboost/releases
#datascience
Удивительно, но нигде не увидел новости о том, что вышла версия XGBoost 2.0.0 - а это ведь одна из самых популярных библиотек для ML.
Самые интересные штуки:
• multi-target regression, multi-label classification и multi-class - до этого подобное я видел только в pyboost
• тренировка на батчах с помощью external memory
• добавили Learning to rank
• улучшенная работа с Pyspark
И много всякого другого.
https://github.com/dmlc/xgboost/releases
#datascience
GitHub
Releases · dmlc/xgboost
Scalable, Portable and Distributed Gradient Boosting (GBDT, GBRT or GBM) Library, for Python, R, Java, Scala, C++ and more. Runs on single machine, Hadoop, Spark, Dask, Flink and DataFlow - dmlc/x...
🔥11
Instruction Tuning Vol. 1
Известный Sebastian Ruder начал выкладывать серию постов про Instruction Tuning. В этот раз выложил ссылки на популярные/важные датасеты. Рекомендую почитать.
https://nlpnewsletter.substack.com/p/instruction-tuning-vol-1
#datascience
Известный Sebastian Ruder начал выкладывать серию постов про Instruction Tuning. В этот раз выложил ссылки на популярные/важные датасеты. Рекомендую почитать.
https://nlpnewsletter.substack.com/p/instruction-tuning-vol-1
#datascience
👍5🔥2
QA-LoRA: Quantization-Aware Low-Rank Adaptation of Large Language Models
Recent years have seen significant advancements in LLMs. These models excel in numerous language-understanding tasks. However, their extensive computational requirements pose challenges, particularly when deploying on edge devices.
To address this, the paper introduces the Quantization-Aware Low-Rank Adaptation algorithm. This method is rooted in balancing the degrees of freedom between quantization and adaptation using group-wise operators. With QA-LoRA, during the fine-tuning phase, LLM weights are efficiently quantized, reducing both time and memory consumption. Post fine-tuning, these weights seamlessly integrate into a quantized model without compromising accuracy. The effectiveness of QA-LoRA has been demonstrated on the LLaMA and LLaMA2 model families across various datasets and applications.
Paper link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
Recent years have seen significant advancements in LLMs. These models excel in numerous language-understanding tasks. However, their extensive computational requirements pose challenges, particularly when deploying on edge devices.
To address this, the paper introduces the Quantization-Aware Low-Rank Adaptation algorithm. This method is rooted in balancing the degrees of freedom between quantization and adaptation using group-wise operators. With QA-LoRA, during the fine-tuning phase, LLM weights are efficiently quantized, reducing both time and memory consumption. Post fine-tuning, these weights seamlessly integrate into a quantized model without compromising accuracy. The effectiveness of QA-LoRA has been demonstrated on the LLaMA and LLaMA2 model families across various datasets and applications.
Paper link
Code link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
🔥4
Картинки в ChatGPT
Сегодня у меня появилась возможность загружать картинки в ChatGPT. По совету знакомых попробовал таким образом решить задачку с литкода https://leetcode.com/problems/3sum-closest/
ChatGPT решил её с первой попытки. Я сделал submit - сработало. 🤯
#datascience
Сегодня у меня появилась возможность загружать картинки в ChatGPT. По совету знакомых попробовал таким образом решить задачку с литкода https://leetcode.com/problems/3sum-closest/
ChatGPT решил её с первой попытки. Я сделал submit - сработало. 🤯
#datascience
🔥6😱4
Я прошёл курс немецкого языка на Duolingo
Я изучал немецкий язык в 2006-2008 годах в университете. Затем, в 2013-2015 годах, я изучал его самостоятельно. Как раз тогда я присоединился к Duolingo и прошёл курс немецкого. Мне особенно нравился раздел с переводами, жаль, что его убрали.
Грамматику я изучал по книге “German: An Essential Grammar” by Bruce Donaldson. Помимо этого я читал новости на Deutsche Welle и делал много других вещей. Мой любимый метод - это читать книги на английском и слушать их на немецком одновременно. Таким образом, я достиг уровня B2 (я проверил это на онлайн-тесте на DW). После этого сделал долгий перерыв в 2016-2023 годах и совсем не использовал немецкий.
В апреле 2023 я снова начал изучать немецкий и среди прочего использовал Duolingo. Вскоре после этого был большой редизайн курса, впечатления от него были смешанные, но я продолжил использовать приложение.
Недавно был еще один редизайн курса Duolingo, и мне всё это надоело. Главная проблема для меня - я слишком часто встречаю простые предложения (клавиатура на телефоне часто подсказывает все предложение после всего двух слов), но сложные были редки. На Duolingo можно пройти тест и пропустить несколько units, и успешно проскочил... ~20-30 уроков до последнего. Недавно я завершил курс полностью и разблокировал последний раздел - в нем шесть случайных ежедневных легендарных заданий.
Думаю, я потихоньку пройду все легендарные задания, а затем остановлюсь (или переключусь на испанский).
В итоге хочу сказать, что Duolingo определенно полезен до уровня ~A2 или раннего B1, но затем его полезность резко снижается.
Подробнее о том, как я изучал языки, я писал в своём блогпосте.
#languages
Я изучал немецкий язык в 2006-2008 годах в университете. Затем, в 2013-2015 годах, я изучал его самостоятельно. Как раз тогда я присоединился к Duolingo и прошёл курс немецкого. Мне особенно нравился раздел с переводами, жаль, что его убрали.
Грамматику я изучал по книге “German: An Essential Grammar” by Bruce Donaldson. Помимо этого я читал новости на Deutsche Welle и делал много других вещей. Мой любимый метод - это читать книги на английском и слушать их на немецком одновременно. Таким образом, я достиг уровня B2 (я проверил это на онлайн-тесте на DW). После этого сделал долгий перерыв в 2016-2023 годах и совсем не использовал немецкий.
В апреле 2023 я снова начал изучать немецкий и среди прочего использовал Duolingo. Вскоре после этого был большой редизайн курса, впечатления от него были смешанные, но я продолжил использовать приложение.
Недавно был еще один редизайн курса Duolingo, и мне всё это надоело. Главная проблема для меня - я слишком часто встречаю простые предложения (клавиатура на телефоне часто подсказывает все предложение после всего двух слов), но сложные были редки. На Duolingo можно пройти тест и пропустить несколько units, и успешно проскочил... ~20-30 уроков до последнего. Недавно я завершил курс полностью и разблокировал последний раздел - в нем шесть случайных ежедневных легендарных заданий.
Думаю, я потихоньку пройду все легендарные задания, а затем остановлюсь (или переключусь на испанский).
В итоге хочу сказать, что Duolingo определенно полезен до уровня ~A2 или раннего B1, но затем его полезность резко снижается.
Подробнее о том, как я изучал языки, я писал в своём блогпосте.
#languages
👍9❤1
Think before you speak: Training Language Models With Pause Tokens
Language models traditionally generate responses by producing tokens sequentially, with each token being a result of manipulating a set of hidden vectors from preceding tokens. This study introduces a novel approach by allowing the model to process additional hidden vectors before producing the next token. This is achieved by adding a "pause token" to the input, and the model's outputs are extracted only after the last pause token is processed, giving the model extra computational time before finalizing an answer.
Empirical evaluations were conducted on decoder-only models with sizes of 1B and 130M parameters, using causal pretraining on C4. The results on various tasks, including reasoning, question-answering, and fact recall, showed promising improvements. Specifically, the 1B model displayed gains on 8 out of 9 tasks, with a notable 18% EM score increase on the SQuAD QA task.
Paper link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
Language models traditionally generate responses by producing tokens sequentially, with each token being a result of manipulating a set of hidden vectors from preceding tokens. This study introduces a novel approach by allowing the model to process additional hidden vectors before producing the next token. This is achieved by adding a "pause token" to the input, and the model's outputs are extracted only after the last pause token is processed, giving the model extra computational time before finalizing an answer.
Empirical evaluations were conducted on decoder-only models with sizes of 1B and 130M parameters, using causal pretraining on C4. The results on various tasks, including reasoning, question-answering, and fact recall, showed promising improvements. Specifically, the 1B model displayed gains on 8 out of 9 tasks, with a notable 18% EM score increase on the SQuAD QA task.
Paper link
My overview of the paper:
Personal blog
Medium
Linkedin Pulse
#paperreview
🔥5
A Survey of Large Language Models for Healthcare: from Data, Technology, and Applications to Accountability and Ethics
Огромная статья с обзором LLM в здравоохранении. Анализируют подходы, данные, использование. Рассматривают особенности использования моделей в медицине с учётом прозрачности, этики и прочего.
Выложили много материалов и ссылок на Github.
#datascience
Огромная статья с обзором LLM в здравоохранении. Анализируют подходы, данные, использование. Рассматривают особенности использования моделей в медицине с учётом прозрачности, этики и прочего.
Выложили много материалов и ссылок на Github.
#datascience
🔥5
Кейс из ERP: как появляются пропущенные данные
Когда мы работаем с данными для их последующего анализа или тренировки моделей, мы часто сталкиваемся с ошибками, пропущенными значениями, расхождениями и другими проблемами. Я хочу поделиться старой историей, которая произошла где-то в 2012 году.
Я тогда работал на своей первой работе в ERP-консалтинге. Мы внедряли и поддерживали российскую систему Галактика - вполне милая и симпатичная система, но, как и любая другая, с некоторыми недостатками.
Через пару месяцев работы меня стали отправлять к клиентам, чтобы помогать им. И к этому всегда нужно было серьезно относиться: одеваться в полный костюм с галстуком, всегда общаться вежливо и никогда не спорить.
В какой-то момент меня отправили в отдел бухгалтерии предприятия ВПК и дали наставления: это очень важный клиент и очень важный человек, обязательно помоги ей и ни о чём не спорь.
Прихожу, аккуратно расспрашиваю, что за ситуация и как я могу помочь. Она показывает - мол, создает она документ в системе, но "данные не вводятся". Точные детали проблемы не помню, но суть заключалась в том, что у них было две системы на предприятии - наша и старая. В одной системе разделитель между целой и дробной частью числа был запятой, в другой - точкой. Она в нашей системе пыталась вводить данные так, как ей это привычно, но у нее это не получалось… и она просто не создавала документ в системе и переходила к следующему.
Вот такой жизненный пример того, почему в системе могут отсутствовать данные.
#data #story
Когда мы работаем с данными для их последующего анализа или тренировки моделей, мы часто сталкиваемся с ошибками, пропущенными значениями, расхождениями и другими проблемами. Я хочу поделиться старой историей, которая произошла где-то в 2012 году.
Я тогда работал на своей первой работе в ERP-консалтинге. Мы внедряли и поддерживали российскую систему Галактика - вполне милая и симпатичная система, но, как и любая другая, с некоторыми недостатками.
Через пару месяцев работы меня стали отправлять к клиентам, чтобы помогать им. И к этому всегда нужно было серьезно относиться: одеваться в полный костюм с галстуком, всегда общаться вежливо и никогда не спорить.
В какой-то момент меня отправили в отдел бухгалтерии предприятия ВПК и дали наставления: это очень важный клиент и очень важный человек, обязательно помоги ей и ни о чём не спорь.
Прихожу, аккуратно расспрашиваю, что за ситуация и как я могу помочь. Она показывает - мол, создает она документ в системе, но "данные не вводятся". Точные детали проблемы не помню, но суть заключалась в том, что у них было две системы на предприятии - наша и старая. В одной системе разделитель между целой и дробной частью числа был запятой, в другой - точкой. Она в нашей системе пыталась вводить данные так, как ей это привычно, но у нее это не получалось… и она просто не создавала документ в системе и переходила к следующему.
Вот такой жизненный пример того, почему в системе могут отсутствовать данные.
#data #story
🔥5😁2