共感で繋がるSNS
GRAVITY(グラビティ) SNS

投稿

ころみー

ころみー

先日の話。
最近近所のスーパーに5キロの手頃なお米が売ってない…その内入荷するかと待ってたけど、いつ行っても売ってなくて、ネットではめちゃ高い。
米不足ってほんとだったのね[びっくり]

なので娘に外出したらスーパーのお米売場のぞいてみてね〜と頼んでおいたら先日、出かけた娘からLINEが。

娘:ちょうど今から入荷してくるみたい!みんな売場の前で並んでて、まだかなぁって言ってる!
私:えぇ、そうなん?じゃあ並んで買ってきてー
娘:買ってもいいけど、これから用事あるから持って帰れない〜今すぐ来て!時間ないから急いで!

駅前のスーパーをのぞいたらしく、そしたらたまたま入荷直前だった模様。

すんごいグッドタイミング!よかったー✨
けど母はその時テキトーな部屋着着て頭ぼっさぼさのどすっぴん。こっちはよくないー[目が回る]

けど時間ないし、えーい、お米のためや!
どすっぴんぼさぼさでもやむなし!

そのまま猛ダッシュで受け取りに走りました🚲

知り合いに会わなくてよかった…
見られてるかもしんないけど笑

でもおかげさまで無事10キロゲット!
これで当分安泰やぁ[大笑い]

しかしやっぱ普段からもうちょっとマシな格好しとかなならんなぁ。反省しました…[冷や汗]

#お米
#米不足
GRAVITY22
GRAVITY50

コメント

しょう

しょう

2 GRAVITY

こっちもコメない かなり品薄 おまけに水も 滋賀県は近江米の産地やのに一粒も並んでへんわ😱

返信
ころみー
ころみー
お〜やはり滋賀もなのね、新米が待ち遠しいねぇ。 そうそう、水も少ないよね! 米よりマシなのか、おひとり様1ケースでこないだ売ってたの見たなぁ。トイレットペーパーもないとか聞いたよ〜[目が回る]
1 GRAVITY
——さらに返信を表示(2)
まめたろ❄️.*˚

まめたろ❄️.*˚

1 GRAVITY

そういう時に限って 急いで出なきゃいけないんよね[泣き笑い] それにしても… お米、そんなに品薄なんやね こっちは大丈夫よ 地域で異なるんやね お米送りたいけど、送料で結局高くついちゃいそうね[冷や汗]

返信
ころみー
ころみー
いつも家にいる時テキトーな格好してるけど、この日はかなりなレベルで人に見られたくない状態やった[泣き笑い] さすがは北の国、お米在庫あるのね! 緊急時はまめちゃんにお願いしようかなぁ[大笑い]
1 GRAVITY
——さらに返信を表示(2)
ゆでたまご🥚༄🍷

ゆでたまご🥚༄🍷

1 GRAVITY

いまはどこにいっても米が売ってなくて2kgさえも… 政府の備蓄米は???

返信
ころみー
ころみー
やっぱりあちこちで品薄なんやね…政府の備蓄米、そんなのあるのね👀 けど災害時とかの緊急最終手段な気もするねぇ…
0 GRAVITY
🍏みどり🍏

🍏みどり🍏

1 GRAVITY

娘ちゃん頼りになるっ!! 母がボッサボサでも行くしかないよね💦笑 うちの方もどこにも売ってないー! ネットで頼んだけど届くの10月だって🤣🤣🤣

返信
ころみー
ころみー
娘めずらしくええ仕事してくれたわ✨😆 そっちもやっぱり品薄なのね💦 そーそーネットで探したら高いわ届くのめちゃ先だわ、でどうしよかと思ってたんよ〜ゲットできてよかった…みどりちゃんも早くゲットできますよーに!
1 GRAVITY
あい

あい

1 GRAVITY

えーヤバ😱い  うちも米買いに行かないと

返信
ころみー
ころみー
娘曰く並んでた人たちは事前に入荷時間を聞いてたみたいよ〜なるほど!て思ったわ💡
1 GRAVITY
——さらに返信を表示(1)
もっと見る
話題の投稿をみつける
フェイ

フェイ

アイプリラジオ聴こ
GRAVITY
GRAVITY3
狂悪な

狂悪な

LINEARATTENTIONのメリットは?
計算効率の向上LINEAR ATTENTIONは、従来のアテンションメカニズムに比べて計算量が大幅に削減されます。特に、長いシーケンスを扱う際に、計算時間が線形に増加するため、大規模なデータセットでも効率的に処理できます。 メモリ使用量の削減従来のアテンションは、入力の長さに対して二次的にメモリを消費しますが、LINEAR ATTENTIONはメモリ使用量を抑えることができるため、リソースが限られた環境でも利用しやすいです。 スケーラビリティ大規模なモデルやデータに対してもスケーラブルであり、トレーニングや推論の際にパフォーマンスを維持しやすいです。これにより、実用的なアプリケーションでの導入が進んでいます。 柔軟性LINEAR ATTENTIONは、さまざまなタスクに適用可能で、特に自然言語処理や画像処理など、多様な分野での利用が期待されています。 これらのメリットにより、LINEAR ATTENTIONは、特に大規模なデータを扱う際に非常に有用な技術となっています。
GRAVITY
GRAVITY
くつみ

くつみ

雰囲気良すぎる!!!
ばあちゃんちやん!!!
GRAVITY
GRAVITY
白石八

白石八

シャインポストの曲を履修中ですね
#ハノンノオト
GRAVITY
GRAVITY6
ナッツ

ナッツ

#ラジオ100カノ
すごすぎる…!!
GRAVITY
GRAVITY5
ヴィク

ヴィク

平日の昼に1人だったし女だとでも思ったんか?
GRAVITY
GRAVITY6
ようこ

ようこ

最近、LINEARATTENTIONについて学んだんだけど、計算効率がすごい!長いデータでもスムーズに処理できるのが魅力的。これからのAI技術に期待大!みんなはどう思う?
LINEARATTENTIONはどのように機能するのか?
LINEARATTENTIONは、従来のアテンションメカニズムを改良したもので、特に計算効率が高いのが特徴です。以下にその機能を簡単に説明します。 基本的な仕組み: 従来のアテンションでは、全ての入力トークン間の相互作用を計算するため、計算量が膨大になります。これに対し、LINEARATTENTIONは、トークン間の相互作用を線形に近い計算で処理します。 計算効率: LINEARATTENTIONは、入力の長さに対して線形の計算量で済むため、大規模なデータセットや長いシーケンスを扱う際に非常に効率的です。これにより、メモリ使用量も削減されます。 実装方法: LINEARATTENTIONは、特定の数学的手法を用いて、トークン間の関係を簡略化します。具体的には、カーネル法を利用して、アテンションの計算を近似します。 メリット: 計算速度が速く、リソースの消費が少ないため、リアルタイム処理や大規模なモデルに適しています。また、長いシーケンスを扱う際のパフォーマンスが向上します。 このように、LINEARATTENTIONは、効率的な計算を実現しつつ、従来のアテンションメカニズムの利点を活かすことができる技術です。
GRAVITY
GRAVITY
うぴ😈

うぴ😈

らすはい!
GRAVITY
GRAVITY7
プリン

プリン

普通に、早く、デンレゼになりたい(ハピエン希望ですけど)
GRAVITY
GRAVITY8
ペっち

ペっち

誰かを落としてまでまゆたん入れろよってのは思わないけど、どういう基準で選抜を決めてるのかだけは明確にしてほしい。オンラインミーグリの即時完売に貢献されてる方が不憫でならんし、免除の意味がない。
GRAVITY
GRAVITY6
もっとみる
関連検索ワード

先日の話。