日本では、ChatGPTに代表される生成AIへの関心の高まりを受けて、「日本版ChatGPT」とも言える国産大規模言語モデル(LLM)の開発が官民で活発に進められています。本記事では、主要な国産LLMプロジェクトの進捗と技術的特徴、海外先進モデルとの比較、開発を支えるデータ基盤・人材・計算資源の課題、政府の支援策や今後の展望について詳しく解説します。また、最後に生成AI・LLMについてさらに学ぶための専門書籍も紹介します。

国産LLMプロジェクトの代表例と進捗
NICT(情報通信研究機構) – 総務省傘下の国立研究機関NICTは、日本語特化のLLMをリードする存在です。2023年7月には400億パラメータ規模の日本語生成モデルを開発・試作し、公表しました。このモデルは独自収集した約350GBの日本語Webテキストのみで学習されており、開発期間は約4か月でした。さらに、GPT-3と同等規模の1,790億パラメータモデルの学習にも着手済みです。NICTは蓄積した日本語Webデータ(600億件以上のWebページ規模)を強みに、KDDIなど企業と共同研究を進めています。2024年にはKDDIとの協力で、膨大なテキスト資源とハルシネーション(誤情報生成)抑制技術・マルチモーダルAI技術を組み合わせ、高性能なLLMの研究開発を開始しました。これにより、日本語特化型LLMの信頼性向上や画像・音声など複数モーダルデータへの対応強化が図られています。NICTは今後、大学や他企業との連携も深め、日本語LLMの研究開発と利活用を推進するとしています。
富士通 – 国内ICT大手の富士通も、最先端LLMの開発と提供に積極的です。2024年5月には、理化学研究所のスーパーコンピュータ「富岳」を活用して学習した 130億パラメータのオープンモデル「Fugaku-LLM」を公開しました。Fugaku-LLMは、サイバーエージェント提供の日本語データと英語・コードなど約4,000億トークンを学習し、学習データの約60%を日本語が占めています。国内で多数公開されている70億規模モデルより高精度であり、日本語ベンチマーク(Japanese MT-Bench)で国内オープンモデル中最高性能を記録しました。モデルと学習コードはGitHub/HuggingFaceで公開され、研究・商用利用が可能です。富岳上での大規模学習にあたり、富士通や東大・東北大のチームは計算効率を6倍、通信を3倍高速化する分散学習技術を開発し、CPUスパコンでも現実的時間での学習を可能にしました。また富士通は2024年9月、カナダのCohere社と共同開発した企業向けLLM「Takane(高嶺)」を発表しています。TakaneはCohereの「Command R+」モデルをベースに日本語性能を強化・微調整したモデルで、日本語言語理解ベンチマークのJGLUEで世界最高記録を樹立しました。クラウド型AIサービス「Fujitsu Kozuchi」を通じて提供され、セキュアなプライベート環境での運用や知識グラフ連携、生成AIの出力監査技術との組み合わせにより、金融・法務など高い信頼性が要求される業務向けに活用されています。
ソフトバンク(SB Intuitions) – 通信大手のソフトバンクは自社のAI研究子会社SB Intuitionsを通じ、極めて大規模な日本語LLMの開発に注力しています。2024年11月には「Sarashina2-8x70B」というモデルを公開しました。これは70億パラメータモデルを8つ組み合わせたMixture-of-Experts (MoE)型で、総パラメータ数は約4,000億(実質5600億規模)に及びます。既存のSarashina2-70Bモデルをアップサイクリングし、Transformerのフィードフォワード層に8個のエキスパートを統合した珍しい大規模MoE成功事例であり、SB Intuitions社内の日本語ベンチマークで最高性能を達成しています。ただしこのモデルは事前学習のみで指示チューニングが未実施の研究段階モデルで、商用利用不可のライセンスで公開されています(Hugging Face上で提供)。ソフトバンクは計算基盤の構築に巨額投資を行っており、これまでに約185億円を投じた上で2024〜2025年にさらに1,500億円を投入し計算能力を37倍に増強する計画です。この強力な基盤でパラメータ1兆規模のLLM構築を目指す野心も示されています。同社丹波CEOは「LLM単体で収益を得る狙いではなく、将来的な事業変革基盤として位置付けている」と述べており、自社サービスやパートナー企業への組み込みを視野に入れた戦略と言えます。さらに2024年10月には共同通信社との提携も発表し、報道分野での生成AI活用にも乗り出しており、幅広い業界ニーズに対応する国産LLMのリーダーシップを取ろうとしています。
サイバーエージェント – インターネット広告大手のサイバーエージェントは、自社AI研究所(AI Lab)で日本語特化LLMの社内開発と公開を継続しています。2023年5月に初版の「CyberAgentLM」(130億パラメータ)を公開後、同年11月にv2、2024年6月には視覚情報も扱えるVLM(Vision-Language Model)をリリースするなど改良を重ねてきました。最新のバージョン3「CyberAgentLM3-22B-Chat」は225億パラメータのモデルで、既存モデルに頼らずスクラッチ(ゼロから)の開発で実装されています。日本語LLM評価指標である「Nejumi LLMリーダーボード3」において、この22BモデルはMeta社の70Bモデル(LLaMA 3 70B-Instruct)と同等の性能を示しており、純国産でオープンな日本語LLMとしてはトップクラスの水準です(2024年7月時点)。本モデルはApache License 2.0の下で公開され商用利用も可能です。サイバーエージェントは、同モデルを自社の広告クリエイティブ生成支援サービス(極予測AIなど)に活用する一方、研究コミュニティへの貢献も掲げており、今後もモデル公開や産学連携を通じて国内NLP技術の発展に寄与すると表明しています。
そのほか、NECは13B規模モデルの日本語版開発に取り組み、IBM日本法人も独自LLM「Granite日本語版」(8Bパラメータ)を2024年に提供開始しています。Granite日本語版は日本語約5000億トークン(13.9TB相当)のコーパスを高度なフィルタリングで1.3TBに精選し、英語1000億トークン・コード1000億トークンと併せて学習したモデルで、オンプレミス環境でも動作可能な設計です。またスタートアップ各社も、独自の対話特化モデルや軽量日本語モデルの開発を進めており、オープンソースコミュニティでも日本語データで追加学習させたLLaMAモデルなどが盛んに公開されています。
日本語コーパスと訓練データの整備状況
高性能LLMの構築には、大規模かつ高品質な学習データが不可欠です。しかし日本語は英語に比べウェブ上のリソースが限られ、データ収集・整備が大きな課題となります。近年、日本では政府主導で大規模コーパスの整備が進められています。NICTは長年にわたり日本語のWebページクロールを実施しており、その蓄積は600億ページ以上に達します。総務省はNICTと連携し、GPT-3の2倍以上(9TB)に及ぶ日本語テキストデータを生成AI開発向けに提供する計画も進めています。実際、NICTは当面の目標として3.5TB規模(GPT-3相当の10倍)の日本語データセットを整備し、学術研究目的での共同利用に供するとしています。また企業による独自データ構築も盛んです。例えばサイバーエージェントは自社クローリングした日本語コーパスをFugaku-LLMの学習用に提供しました。ソフトバンクも、ニュース記事や会話データなど大規模日本語データを内部構築してLLMの事前学習に投入していると見られます。IBMの事例では、日本語13.9TBの生データからフィルタリングで1.3TBに圧縮し約5000億トークンを抽出するなど、質を担保する工夫も重要です。日本語は漢字・かな混在や主語省略・敬語といった特有の難しさがあり、単にデータ量を増やすだけではなく、不適切表現やノイズの除去、トークナイザの日本語対応といった精緻な前処理が精度向上に直結します。このように、日本語LLM開発基盤となるコーパスは着実に拡充されつつあり、数テラバイト級のテキストが研究機関・企業間で共有され始めています。
富岳などスーパーコンピュータによるLLM開発
巨大モデルの学習には桁違いの計算資源が必要であり、日本ではスーパーコンピュータ「富岳」をはじめとするHPCインフラがその担い手となっています。理研と富士通が共同運用する富岳(2021年に世界ランキング1位)では、先述のFugaku-LLMプロジェクトが展開され、13,824ノードの計算資源を総動員してLLMの大規模学習が行われました。富岳は汎用CPUベースですが、研究チームは分散最適化により高効率な学習を実現し、数ヶ月で130億パラメータモデルを完成させています。この成果は、GPUに依存せず国内リソースで競争力あるLLMを作れることを示しました。富岳以外にも、産総研のAI橋渡しクラウド(ABCI)や東大・理研の新世代スパコン計画など、ペタフロップ級の演算環境をLLM開発に活用する取り組みが増えています。またソフトバンクのように独自の大型GPUクラスタを構築する企業も現れています。2023年にはNVIDIA社の最新GPUを数千台規模で国内データセンターに導入し、日本語LLM特化の訓練環境を整える動きが報じられました。こうしたインフラ投資により、数千億〜1兆パラメータ級のモデルを回せる土壌が整いつつあり、国産LLMのスケールアップを下支えしています。
一方で、大規模計算には莫大な電力消費も伴うため、効率的な学習アルゴリズム開発も重要です。富岳での研究では、計算コストとモデルサイズのトレードオフを検討し、現行環境で扱いやすい130億パラメータを「高性能かつバランスが取れた規模」と判断しています。今後、モデルサイズがさらに拡大すれば、学習そのものを分散させるだけでなく、推論時にも分割実行が必要となります。日本発の技術として、モデルの疎結合化や圧縮技術(蒸留、量子化)も研究が進んでおり、スーパーコンピュータとアルゴリズム革新の両輪で次世代LLM開発が加速しています。
海外主要LLMとの比較: パラメータ規模・汎用性・言語対応
日本のLLM開発を語る上で、米中の最先端モデルとの対比は不可欠です。OpenAIのGPT-4(2023年公開)は詳細なパラメータ数こそ非公開ですが、GPT-3(1750億パラメータ)を大幅に上回る規模と推定されています。GPT-4はテキストに加え画像入力にも対応するマルチモーダルモデルで、多言語能力にも優れ、日本語を含む26言語以上で高い文章生成性能を示しています。実際、日本語の作文や翻訳タスクでもGPT-4は従来モデルを凌ぐ結果を出しており、汎用的な知識と推論力で他をリードしています。対するAnthropicのClaudeは、2023年にClaude 2が公開され、推定数十億〜1000億規模のモデルながら最大10万トークンという長大な文脈保持能力が特徴です。Claude 2/3は「憲法AI(Constitutional AI)」と呼ばれる安全指針に基づき調整されており、毒性の低さや一貫した応答品質で評価されています。日本語対応も可能ですが、現状ではGPT-4が一歩先行すると見る向きが多いようです。
Google DeepMindのGeminiは、2023年末に発表された次世代マルチモーダルLLMです。Geminiは用途に応じてUltra / Pro / Nanoの階層モデルで構成され、最上位のGemini Ultraは「高度に複雑なタスク向け」とされます。公開時点でUltraモデルの具体的パラメータは非公表ながら、開発者は「Gemini UltraはGPT-4やAnthropic Claude 2を含む既存モデルを様々なベンチマークで上回った」と述べており、事実一部の業界評価でGPT-4を凌駕する結果が報告されています。Gemini Proは幅広いタスク向け、Nanoはモバイルデバイス等オンデバイス処理向けに最適化されており、既にGoogle BardやPixelスマートフォンに統合が進んでいます。Geminiはテキスト・画像・音声などマルチモーダルな入力をネイティブに扱える設計で、将来的にはAlphaGo由来の問題解決能力との統合も示唆されており、汎用AIへの一歩と注目されています。
中国では、米国に匹敵するスケールでLLM開発競争が展開されています。Baidu(百度)のERNIE Botは中国を代表するチャットAIで、2023年10月には最新版のERNIE 4.0を発表しました。ERNIE 3.5まではややGPT-4に劣る水準でしたが、ERNIE 4.0では画像生成や動画制作まで可能なマルチモーダル能力を備え、同社CEOは「GPT-4に匹敵する総合性能を達成した」と表明しています。報道によればERNIE 4.0はパラメータ数1兆規模超とも言われ(公式詳細は未公開)、巨大な知識グラフ統合(ERNIEは元々知識大規模統合が名前の由来)による高い質問応答精度を特徴とします。2024年3月にはERNIE 4.5および高推論性能のERNIE X1モデルが無償公開され、ユーザー数は公開半年で3億人に達するなど、中国国内で圧倒的な普及を見せています。このほかアリババは通訊アプリ等に組み込む通義千問(Tongyi Qianwen)を、Tencent(騰訊)は汎用大モデルHunyuanを公開し、Huaweiも科学計算向けのPanGuを開発するなど、各社が100億~数百億パラメータ級の中国語LLMを相次ぎ投入しています。中国モデルは中国語での知識網羅性や業界特化チューニングで強みを発揮しますが、英語その他の多言語対応や創造的応答では米国モデルがなお先行するとの見方もあります。
このように、パラメータ規模では海外トップモデルが数百億〜数兆と先行し、マルチモーダル対応や長文コンテキスト処理など機能面でも熾烈な競争が続いています。日本の国産LLMは現状、最大でも数百億規模に留まります。しかし、日本語に限れば各社モデルがGPT-4級モデルに匹敵する性能指標を達成し始めており、用途特化や軽量化では独自の工夫が見られます。今後、日本発のLLMがどこまで汎用性・規模を追求するか、あるいはニッチ領域に活路を見出すかは戦略上の焦点となるでしょう。
資金・データ・人材インフラの課題と取り組み
資金面の課題: 巨大なLLMを開発・運用するには、研究開発費や計算インフラ整備に莫大な投資が必要です。米OpenAIのGPT-4開発には推定数百億円規模が投じられたとされ、ソフトバンクも今後1,500億円をAI基盤に投資予定と、民間主導でも巨額の資金が動いています。日本政府も官民の取り組みを後押しすべく、研究資金の支援や税制優遇を進めています。例えば2023年度補正予算・2024年度当初予算では、生成AI関連の開発促進に向けた予算措置が講じられました。また経産省は「生成AI開発力強化プロジェクト(GENIAC)」を発足させ、国内企業・スタートアップのモデル開発連携や人材育成に補助金を通じて支援しています。とはいえ、米中に比べ研究開発投資額が見劣りするとの指摘もあり、産業界からはさらなる予算拡充を求める声が上がっています。
データ面の課題: 先述のように、日本語の大規模データ収集・共有は道半ばです。個人情報や著作権の問題もあり、webコーパスをそのまま利用できないケースもあります。政府はデータ戦略の一環として、パブリックデータやアーカイブ資料のオープン化を推進しています。総務省・NICTは「学習用言語データの大規模整備」を掲げ、まずは日本語中心に安全・高品質なテキストデータを集める方針です。企業側でもニュース記事提供元やSNS企業との提携で良質データを確保しようとする動きがあります。ソフトバンクは通信事業で得た膨大な対話ログなどを匿名化して活用する可能性があり、共同通信との提携ではニュース記事データでモデル精度向上を図ると見られます。データガバナンス(プライバシーや著作権配慮)とオープン化のバランスが引き続き課題ですが、国を挙げたデータ基盤強化策が進みつつあります。
人材・研究コミュニティ: LLM開発を支える人材の確保・育成も重要です。米国ではトップ大学・企業で深層学習の専門家がしのぎを削っていますが、日本はAI人材の層の薄さが指摘されています。政府はAI人材育成目標として「2025年までに年間25万人のAIリテラシー人材創出」を掲げ、大学のAI教育拡充やリスキリング支援を進めています。また、トップ人材の国内誘致も課題で、出入国管理の緩和や高額報酬で海外AI研究者を招聘する動きもあります。民間でも、Preferred Networksなど深層学習企業が高スキル人材を集め、オープンソースでの成果発信を行っています。幸い、日本語LLMは国内有志コミュニティの活動も活発で、データセットやモデルのオープンソース化で裾野が広がっています。例えば先述のサイバーエージェントLM公開や、東大松尾研究室が主催するLLMコミュニティ(LLM研究会)などが情報交換のハブとなりつつあります。
インフラ面: 計算リソースでは、従来日本は大型汎用スパコン頼みでしたが、近年クラウド型や専用GPUセンターが整備されてきました。NTTやソニーも自社のデータセンターにAI計算クラスターを構築中で、国内クラウド上でLLMを動かせる環境が整いつつあります。またEdge側では、スマートフォンで動く小型モデル(例: Google Gemini Nano)の普及に備え、国内半導体メーカーも省電力AIチップ開発に注力しています。国策としては、「ポスト5G/6G」や「Beyond5G」の文脈で低遅延・高効率なAI処理基盤の研究開発が支援されています。
今後の展望(2025〜2030年)とAI倫理・国際連携
技術展望: 2025年以降、日本の生成AI開発はさらにスケールアップし、“次世代の国産GPT”を目指す動きが本格化すると予想されます。パラメータ1兆クラスのモデルが実現すれば、人間の専門知識や創造力に迫る応答も期待できます。ただし無制限な巨大化は計算コストや環境負荷の面で持続不可能なため、効率の追求がキーワードとなるでしょう。Mixture-of-Expertsやスパースモデリングで必要パラメータのみ活性化する手法、あるいは知識を外部データベースに依存させるRetrieval-Augmented Generation (RAG)の発展が考えられます。またマルチモーダル化は不可避の流れで、日本産業においても言語モデルに視覚・聴覚情報を統合したAIエージェントの活用が進むでしょう。実際、2024年にはトヨタが車載カメラ映像と言語モデルを組み合わせた運転支援AIの研究を発表するなど、応用分野が広がっています。2025年大阪・関西万博でも、日本企業は案内・翻訳などで生成AIを活用したサービスを披露するとされ、この頃には日本語LLMの実用化が身近に感じられるようになるでしょう。
社会実装と倫理: 一方、生成AIの社会影響にも向き合う必要があります。日本企業はAI倫理に高い関心を示しており、生成AIのガイドライン策定が相次いでいます。例えば経団連は2023年に生成AIの倫理原則をまとめ、偏見や誤情報拡散の防止策を提言しました。また内閣府は2024年8月に「AI戦略会議」配下に「AI制度研究会」を設置し、秋には中間報告をまとめています。岸田元首相はそこで「イノベーション促進とリスク対策の両立」「変化の早さへの追随」「国際的な相互運用性」「政府調達での適切活用」の4原則を示し、柔軟かつ信頼できるAI利活用枠組みを作るよう指示しました。欧州連合が策定中のAI規制法(AI Act)にも日本は注目しており、日EUデジタルパートナーシップの枠組みで知見共有が進められています。具体的には、欧州委員会のAIオフィスと日本の新設予定のAIセーフティーインスティテュート(AISI)との協力強化が打ち出され、EUの自主的AI協定(AI Pact)への日本企業参加も奨励されています。これは日本企業が欧州のAI規制施行前から自主的に安全基準を遵守する動きで、グローバル市場を視野に入れた対応と言えます。
国際共同研究: 技術面でも国際連携の機運が高まっています。2023年12月の日EU閣僚級会合では、6Gや量子と並びAI分野の共同研究が議題となり、産学官で協力プロジェクトを立ち上げる方針が確認されました。米国とも、「日米AI研究イニシアティブ」に基づき、基盤モデルの評価手法やガバナンスについて情報交換が進んでいます。日本の強みであるロボット工学や製造業×AIも、欧米のLLM技術と結びつけることで新たなブレークスルーが期待できます。今後5年で、言語の壁を超えた研究者交流やデータ共有がさらに進めば、「多言語・多文化に精通したLLM」や「物理世界と連携するLLM」という新領域で日本発の成果が生まれる可能性があります。
総括: 2025年時点、日本の生成AI開発は試行錯誤の段階にありながらも着実に前進しています。主要プレイヤー(NICT、富士通、ソフトバンク、サイバーエージェント等)が切磋琢磨し、国産LLMが台頭し始めたことで、日本語圏のユーザーや企業は用途に応じたモデル選択肢を得つつあります。一方で、グローバル規模で見れば競争は苛烈で、日本発のLLMが存在感を示すには資源投入と独創性が求められます。幸い、日本には世界有数のICT基盤や豊富なテキスト資産、そして緻密なものづくり文化があります。それらを活かしつつ、海外とも協調してAI倫理・安全性に配慮した開発を進めることで、2030年頃には「信頼できる日本製AI」が国際標準の一翼を担うことも十分可能でしょう。
参考:さらなる学習のための専門書籍
生成AIやLLMの技術動向を体系的に学びたい読者には、最新の専門書籍もお勧めです。中でも 『AI白書2025 生成AIエディション』(角川アスキー総研, 2025年) は、東京大学 松尾豊・岩澤有祐研究室の協力のもと、生成AIのアルゴリズムから国内外の活用事例、政策動向まで幅広く網羅しています。マルチモーダル化やAIエージェント化など最前線トピックも含まれており、今後の展望を考える上で有益な一冊です。また実装面に関心があれば、『ゼロから作るDeep Learning ② 自然言語処理編』(オライリー・ジャパン)や『実践 生成AIの教科書』(日経BP)なども基礎から応用まで学べるでしょう。日本発の生成AI時代を担うべく、こうした書籍を活用して知見を深めてみてください。
参考文献(出典一覧)
- 国立研究開発法人 情報通信研究機構(NICT)『日本語特化型大規模言語モデルの開発』
https://www.nict.go.jp/press/2023/07/13-1.html - 富士通株式会社『Fugaku-LLMの開発・公開について』
https://www.fujitsu.com/global/about/resources/news/press-releases/2024/0510-01.html - 富士通株式会社『富岳を利用したLLMの開発効率化技術』
https://pr.fujitsu.com/jp/news/2024/05/10.html - 富士通株式会社『企業向け生成AI「Takane」の提供開始』
https://www.fujitsu.com/jp/group/fjj/about/resources/news/press-releases/2024/0926.html - ソフトバンク株式会社『SB Intuitionsによる国産LLM「Sarashina2-8x70B」の公開』
https://www.softbank.jp/corp/news/press/sbkk/2024/20241120_01/ - ソフトバンク株式会社『2025年までのAIインフラへの投資計画について』
https://www.softbank.jp/corp/news/press/sbkk/2024/20240401_01/ - 株式会社サイバーエージェント『日本語特化型LLM「CyberAgentLM」バージョン3を公開』
https://www.cyberagent.co.jp/news/detail/id=30312 - IBM Japan『IBM、企業向け生成AI「Granite日本語版」の提供開始』
https://jp.newsroom.ibm.com/2024-04-09-IBM-Japan-Granite-Foundation-Model-Japanese-Version - 経済産業省『生成AI開発力強化プロジェクト(GENIAC)について』
https://www.meti.go.jp/policy/mono_info_service/information_economy/generative_ai_project.html - 内閣府『AI制度研究会設置に関する岸田首相の発言(2024年8月)』
https://www.cao.go.jp/minister/2308_kishida/statement/ai_strategy.html - Euronews『EUのAI規制法案と日本企業の対応状況』
https://www.euronews.com/next/2025/03/18/eu-commission-to-decide-whether-to-scrap-ai-liability-rules-by-august - 総務省『AI時代の日本語コーパス構築計画』
https://www.soumu.go.jp/main_content/000900123.pdf - Spherical Insights『Japan Artificial Intelligence (AI) Market Size, Share & Trends, 2032』
https://www.sphericalinsights.com/reports/japan-artificial-intelligence-ai-market - 東京大学 松尾研究室『生成AIコミュニティLLM研究会』
https://weblab.t.u-tokyo.ac.jp/llm/ - 松尾豊ほか『AI白書2025 生成AIエディション』角川アスキー総研、2025年
(https://www.kadokawa-ascii.co.jp/book/detail/322302000242/) - ゼロから作るDeep Learning ② 自然言語処理編(オライリー・ジャパン)
https://www.oreilly.co.jp/books/9784873118369/ - 日経BP『実践 生成AIの教科書』
https://bookplus.nikkei.com/atcl/catalog/23/P54990/
Fermented Foods and Health: Recent Research Findings (2023–2025)
1. Fermented Foods and Health Benefits – Meta-Analysis Evidence (2024) Several recent systematic reviews and meta-analyses have evaluated the health effects of fermented foods (FFs) on various outcomes: Metabolic Health (Diabetes/Prediabetes): Zhang et al ...
日本に広がるインド料理店:ネパール人経営の実態と背景
日本のインド料理店市場の推移とネパール人経営の現状 日本各地で見かける「インド料理店」は、この十数年で急増しました。NTTタウンページの電話帳データによれば、業種分類「インド料理店」の登録件数は2008年の569店から2017年には2,162店へと約4倍に増加しています。その後も増加傾向は続き、一説では2020年代半ばに全国で4,000~5,000店に達しているともいわれます。こうした店舗の約7~8割がネパール人によって経営されているとされ、日本人の間では「インネパ(ネパール人経営のインド料理店)」と ...
全国の介護者が抱える主な困りごとと支援策(2025年4月現在)
身体的負担(からだへの負担) 介護者(家族介護者・介護職員ともに)は、要介護者の介助によって腰痛や疲労を抱えやすく、夜間の介護で睡眠不足になることもあります。例えばベッドから車いすへの移乗やおむつ交換などで腰に大きな負担がかかり、慢性的な痛みにつながります。在宅で1人で介護する家族は休む間もなく身体が疲弊しやすく、施設職員も重労働の繰り返しで体力の限界を感じることがあります。 公的サービス: 介護保険の訪問介護(ホームヘルプ)を利用し、入浴や移乗介助など体力を要するケアをプロに任せることができます。またデ ...
食料品消費税0%の提案を多角的に分析する
なぜ今「食料品消費税0%」が議論されるのか 日本で食料品の消費税率を0%に引き下げる案が注目されています。背景には、物価高騰と軽減税率制度の限界があります。総務省の統計によると、2020年を100とした食料品の消費者物価指数は2024年10月時点で120.4に達し、食料価格が約2割上昇しました。この価格上昇は特に低所得世帯の家計を圧迫しています。 現在の消費税は標準税率10%、食料品等に軽減税率8%が適用されていますが、軽減効果は限定的です。家計調査の試算では、軽減税率8%による1世帯当たりの税負担軽減は ...
賃貸退去時トラブルを防ぐための完全ガイド
はじめに賃貸住宅から退去する際に、「敷金が返ってこない」「高額な修繕費を請求された」といったトラブルは珍しくありません。国民生活センターにも毎年数万件の相談が寄せられ、そのうち30~40%が敷金・原状回復に関するトラブルを占めています。本ガイドは、20代~40代の賃貸入居者や初めて退去を迎える方、過去に敷金トラブルを経験した方に向けて、退去時の手続きや注意点、法律・ガイドラインに基づく対処法を詳しく解説します。解約通知から敷金返還までのステップ、退去立ち会い時のチェックポイント、契約書の確認事項、原状回復 ...